Publicidade
Início Notícias Inteligência Artificial PL da Inteligência Artificial prejudica desenvolvimento da tecnologia no Brasil e a...

PL da Inteligência Artificial prejudica desenvolvimento da tecnologia no Brasil e a inovação no setor produtivo, diz CNI

0
Publicidade

A indústria defende a regulação do uso da Inteligência Artificial (IA) no Brasil, mas alerta que o Projeto de Lei 2.338/2023 cria obstáculos para o desenvolvimento tecnológico e a inovação no país. O texto apresentado nesta quinta-feira (4) na Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA), no Senado Federal, tem avanços pontuais em relação às versões anteriores, mas mantém a estrutura e a base conceitual que resultam em um modelo regulatório com maior amplitude e rigor no mundo, o que coloca o país sob o risco de sofrer um isolamento e atraso tecnológico.

Lideranças industriais do país reunidas na Mobilização Empresarial pela Inovação (MEI) e na Confederação Nacional da Indústria (CNI) reconhecem a necessidade de coibir o mau uso da tecnologia, sobretudo no contexto das eleições e das redes sociais. Contudo, alertam que o PL excede no escopo ao regular a IA em si, fazendo a lei incidir desde a concepção e o desenvolvimento dos sistemas, em vez de dar relevância ao uso e às aplicações por grau de risco, como fazem os outros países.

O diretor de Tecnologia e Inovação da CNI, Jefferson Gomes, explica que a indústria está integrada à cadeia de valor da IA como fornecedora de insumos e criadora de infraestrutura, como energia, hardware, chips e sistemas operacionais; além de ser desenvolvedora de aplicações e usuária pioneira, junto aos setores de agro e serviços.

“O Brasil tem vantagens competitivas e a inteligência artificial tem grande potencial para impulsionar a produtividade na indústria. Mas a regulação prevista ignora os diferentes usos e riscos e impõe pesado aparato regulatório não só nas aplicações da IA, mas na pesquisa e no desenvolvimento da tecnologia. Corremos o risco de afugentar novos investimentos, prejudicar os projetos de IA do setor produtivo que nem sequer utilizam dados pessoais e levar o país a perder competitividade e a oportunidade de se inserir como importante player nas cadeias globais”, observa Jefferson Gomes.

Pontos mais críticos do texto

1) Regula da concepção ao desenvolvimento e à adoção dos sistemas de IA, e não apenas a implementação e o uso de aplicações por grau de risco, o que resulta em barreiras ao desenvolvimento científico e tecnológico da tecnologia;

2) Estabelece uma carta de direitos que precede e está dissociada da análise de risco da aplicação, em vez de estabelecer as obrigações do agente regulado perante o regulador. O modelo regulatório sui-generis voltado para direitos do cidadão leva à insegurança jurídica e à judicialização pela sobreposição com a legislação brasileira protetiva de direitos (CDC, LGPD, MCI, etc);

3) Cria carga de governança excessiva, mesmo para aplicações que não são de alto risco, além de intervenção externa em processos internos das empresas, o que viola segredos comerciais e industriais e a livre iniciativa;

4) Provoca sobreposição de competências regulatórias entre os órgãos centrais e uma autoridade central, que deveria coordenar do sistema, resultando em insegurança jurídica;

5) Há vício de iniciativa ao prever como órgão central a Autoridade Nacional de Proteção de Dados (ANPD), que ainda está em processo de estruturação para a proteção aos dados pessoais, e não possui competência técnica sobre IA ou políticas de inovação, como outros órgãos do governo mais aptos ao desafio.

O que a indústria propõe na regulação da IA

– Ajuste de escopo: a lei deve incidir sobre as aplicações dos sistemas, que é a etapa onde se materializam e podem ser avaliados, e não na concepção e no desenvolvimento, sob pena de barrar a inovação;

– Regulação por risco: a lei deve incidir sobre as aplicações de alto risco e excluir as de baixo e médio risco, especialmente as que não envolvem dados pessoais ou interação com seres humanos. Essa diferenciação é indispensável para o avanço da indústria 4.0, pois inúmeras aplicações de IA em processos industriais não têm riscos nem correlação com pessoas;

– Adequação do modelo regulatório: estabelecer obrigações do agente regulado perante o regulador e não de direitos do usuário sobre o prestador do serviço, que já estão presentes em marcos legais associados ao direito do consumidor e à prestação de serviços públicos. Apesar de avanços em relação ao primeiro texto apresentado, é preciso ampliar a descentralização e o papel das agências setoriais no Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).

– Adequar a proposta ao contexto normativo e de políticas governamentais de estímulo à inovação, como a Estratégia Brasileira de Inteligência Artificial (EBIA) e o Plano de Ação de Política Industrial (PBIA);

– Abordar questões de governança, propriedade intelectual e impacto sobre pequenas e médias empresas de forma diferenciada, que pelo texto atual, podem enfrentar dificuldades devido a exigências desproporcionais de governança e auditoria externa dos sistemas de IA;

Essas prioridades foram defendidas na última reunião da MEI, ocorrida em junho, comandada pelo presidente da CNI, Ricardo Alban, e pelo coordenador da MEI, Pedro Wongtschowski. Participaram dos debates 253 representantes da indústria, da academia e do governo. No encontro, 61 lideranças do setor assinaram um posicionamento com pontos de atenção e propostas de melhoria ao PL 2.338/2023, entre elas representantes da Embraer, Tupy, Grupo FarmaBrasil, Volkswagen, BASF, Rockwell e IBM.

Potencial da IA no Brasil?

O Brasil tem dois grandes diferenciais competitivos para desenvolvimento e uso da IA:

– O tamanho e a heterogeneidade da população, que pode alimentar com informações as bases de dados que treinam as aplicações de IA generativa;

– A matriz energética limpa para atender a demanda dos datacenters. Os países estão buscando descarbonizar seus processos produtivos direcionando a produção para regiões que oferecem energia limpa, segura, barata e abundante, como o Brasil – movimento conhecido como powershoring.

Como está a regulação nos outros países

União Europeia: regulação por riscos. Somente as aplicações de alto risco têm restrições e condicionalidades mais severas. O uso de IA é vedado nas situações de risco inaceitável, em que a decisão humana é indispensável, como é catalogação e hierarquização social de pessoas. Uma cirurgia assistida por robôs também é considerada de alto risco e, portanto, sujeita à comprovação de condições rigorosas para ser comercializada. Já aplicações de risco limitado, como chatbots baseados em IA, têm maior flexibilidade nas condições mínimas para operação no mercado.

Reino Unido: ponderação maior está em reconhecer os benefícios da IA avançando nos mecanismos de regulação a par e passo com os dos estudos e as práticas, com foco sempre no uso e não na tecnologia.

Estados Unidos: o foco tem sido evitar o excesso regulatório, caminhando para cultura da autorregulação, em que princípios são declarados e a sequência é responsabilidade das empresas.

Japão: caminha na mesma linha dos EUA, de soft law de modo a não prejudicar a inovação.

Cingapura: a regulação tem como objetivo garantir boas práticas responsáveis em IA com certificações mundialmente reconhecidas, como o ISO/IEC 42001:2023, primeira norma global para a gestão de IA responsável, tecnicamente atualizada e que pode sofrer alterações sempre que a evolução tecnológica exigir.

SEM COMENTÁRIOS

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

Sair da versão mobile