O Projeto de Lei (PL) 2338/2023, que visa regulamentar o uso da inteligência artificial (IA) no Brasil, está prestes a ser votado no Senado Federal. Após intensas discussões e revisões, a versão final do relatório foi apresentada no dia 5 de junho de 2024, com a votação na Comissão Temporária Interna sobre Inteligência Artificial (CTIA) agendada para o dia 12 de junho. Este projeto, se aprovado, trará mudanças significativas na forma como a IA é desenvolvida e utilizada no país, abordando desafios importantes e oferecendo benefícios substanciais.
O PL classifica sistemas de IA em diferentes níveis de risco, com regulamentações mais rigorosas para sistemas de alto risco. Exemplos desses sistemas incluem diagnósticos médicos, classificação de crédito e identificação de pessoas. A obrigatoriedade de avaliações de impacto algorítmico para sistemas de alto risco, com resultados públicos, visa garantir transparência e segurança. Essas avaliações devem ser realizadas por profissionais independentes, o que representa um desafio em termos de implementação prática e custos para as empresas.
O projeto garante direitos fundamentais aos usuários, incluindo o direito à explicação de decisões automatizadas, à correção de vieses discriminatórios e à supervisão humana em decisões críticas. A transparência sobre o funcionamento dos sistemas de IA e a possibilidade de intervenção humana são aspectos cruciais para evitar abusos e garantir justiça.
Em termos de responsabilidade civil, este PL estabelece que fornecedores e operadores de sistemas de IA de alto risco serão responsabilizados por danos causados, independentemente de dolo ou culpa. Isso aumenta a segurança jurídica para os usuários, mas pode gerar incertezas para as empresas, exigindo medidas de mitigação de riscos e seguros adequados.
A criação de uma autoridade competente para fiscalizar a aplicação da lei é um ponto de controvérsia. Há um debate sobre a criação de uma nova entidade versus a atribuição dessas funções à Autoridade Nacional de Proteção de Dados (ANPD), para evitar fragmentação regulatória. Esta decisão é crucial para garantir uma supervisão eficaz e evitar redundâncias.
Um dos principais desafios da regulamentação da IA é garantir a transparência e a ética no uso dessa tecnologia. O PL 2338/2023 impõe que todos os sistemas de IA, especialmente aqueles de alto risco, sejam transparentes em seu funcionamento. No entanto, a implementação prática dessas medidas pode ser complexa e custosa para as empresas.
Outro desafio significativo é a classificação de riscos. O projeto exige avaliações de impacto algorítmico para sistemas de alto risco, que devem ser realizadas por profissionais independentes. Garantir a precisão e a imparcialidade dessas avaliações é uma tarefa desafiadora, especialmente em um campo tão dinâmico como a IA.
A responsabilidade civil também apresenta desafios, pois o PL prevê que fornecedores e operadores de sistemas de IA sejam responsabilizados por danos causados, independentemente de dolo ou culpa. Isso pode gerar incertezas jurídicas e econômicas para as empresas que desenvolvem e utilizam IA, aumentando a necessidade de seguros e medidas de mitigação de riscos.
Outro desafio significativo é o risco de a regulamentação ser superficial neste momento, prejudicando o desenvolvimento potencial da IA. Apressar a aprovação sem um debate aprofundado pode resultar em diretrizes que não cobrem adequadamente todos os aspectos da tecnologia, limitando a inovação e o crescimento do setor no Brasil.
O uso ético da IA não é um conceito novo e tem sido uma preocupação há décadas. Um exemplo marcante é o IBM Watson, uma plataforma de IA desenvolvida para analisar grandes volumes de dados e auxiliar em decisões complexas, especialmente na área da saúde. O Watson demonstrou o potencial da IA para melhorar diagnósticos médicos e personalizar tratamentos, sempre com um enfoque ético na utilização dos dados e na tomada de decisões.
A história do Watson e de outras tecnologias semelhantes mostra que a IA pode ser desenvolvida e utilizada de maneira ética e responsável. Isso exige um compromisso contínuo com a transparência, a responsabilidade e a proteção dos direitos dos usuários. A regulamentação da IA deve aprender com esses exemplos e garantir que novas tecnologias sigam princípios éticos rigorosos.
Entre os benefícios do PL 2338/2023 está a promoção de um ambiente seguro e transparente para o desenvolvimento e uso de IA no Brasil. A regulamentação clara protege os direitos dos usuários, previne abusos e promove a ética no uso de IA. Isso pode aumentar a confiança do público e atrair investimentos em inovação tecnológica. A criação de sandboxes regulatórios permite que novas tecnologias sejam testadas em um ambiente controlado, promovendo o avanço tecnológico enquanto se garante a segurança e a ética.
Comparado ao EU AI Act, que também classifica sistemas de IA por risco e exige avaliações de impacto sobre direitos fundamentais, o PL 2338/2023 reflete preocupações similares. Ambos os regulamentos promovem a transparência, a responsabilidade e a prevenção de vieses discriminatórios, garantindo que as interações com sistemas de IA sejam informadas e justas.
O PL 2338/2023 complementa outras leis brasileiras, como a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet (MCI), ao focar especificamente em sistemas de IA. A LGPD já estabelece princípios gerais de proteção de dados pessoais, enquanto o PL detalha como esses princípios se aplicam ao uso de IA, garantindo que a regulamentação seja abrangente e coerente.
Em resumo, o PL 2338/2023 representa um passo importante para a regulamentação da IA no Brasil, alinhando-se com práticas internacionais como o EU AI Act e complementando a estrutura regulatória existente no país. A sua aprovação e implementação eficaz serão cruciais para garantir que a IA seja utilizada de maneira ética, segura e benéfica para a sociedade. A votação iminente no Senado será um momento decisivo para definir como o Brasil trilhará os complexos terrenos da regulamentação da inteligência artificial.
Walter Calza Neto, DPO do Corinthians.