Expectativa de votação e impactos da regulamentação da IA no Brasil

0

O Projeto de Lei (PL) 2338/2023, que visa regulamentar o uso da inteligência artificial (IA) no Brasil, está prestes a ser votado no Senado Federal. Após intensas discussões e revisões, a versão final do relatório foi apresentada no dia 5 de junho de 2024, com a votação na Comissão Temporária Interna sobre Inteligência Artificial (CTIA) agendada para o dia 12 de junho. Este projeto, se aprovado, trará mudanças significativas na forma como a IA é desenvolvida e utilizada no país, abordando desafios importantes e oferecendo benefícios substanciais.

O PL classifica sistemas de IA em diferentes níveis de risco, com regulamentações mais rigorosas para sistemas de alto risco. Exemplos desses sistemas incluem diagnósticos médicos, classificação de crédito e identificação de pessoas. A obrigatoriedade de avaliações de impacto algorítmico para sistemas de alto risco, com resultados públicos, visa garantir transparência e segurança. Essas avaliações devem ser realizadas por profissionais independentes, o que representa um desafio em termos de implementação prática e custos para as empresas.

O projeto garante direitos fundamentais aos usuários, incluindo o direito à explicação de decisões automatizadas, à correção de vieses discriminatórios e à supervisão humana em decisões críticas. A transparência sobre o funcionamento dos sistemas de IA e a possibilidade de intervenção humana são aspectos cruciais para evitar abusos e garantir justiça.

Em termos de responsabilidade civil, este PL estabelece que fornecedores e operadores de sistemas de IA de alto risco serão responsabilizados por danos causados, independentemente de dolo ou culpa. Isso aumenta a segurança jurídica para os usuários, mas pode gerar incertezas para as empresas, exigindo medidas de mitigação de riscos e seguros adequados.

A criação de uma autoridade competente para fiscalizar a aplicação da lei é um ponto de controvérsia. Há um debate sobre a criação de uma nova entidade versus a atribuição dessas funções à Autoridade Nacional de Proteção de Dados (ANPD), para evitar fragmentação regulatória. Esta decisão é crucial para garantir uma supervisão eficaz e evitar redundâncias.

Um dos principais desafios da regulamentação da IA é garantir a transparência e a ética no uso dessa tecnologia. O PL 2338/2023 impõe que todos os sistemas de IA, especialmente aqueles de alto risco, sejam transparentes em seu funcionamento. No entanto, a implementação prática dessas medidas pode ser complexa e custosa para as empresas.

Outro desafio significativo é a classificação de riscos. O projeto exige avaliações de impacto algorítmico para sistemas de alto risco, que devem ser realizadas por profissionais independentes. Garantir a precisão e a imparcialidade dessas avaliações é uma tarefa desafiadora, especialmente em um campo tão dinâmico como a IA.

A responsabilidade civil também apresenta desafios, pois o PL prevê que fornecedores e operadores de sistemas de IA sejam responsabilizados por danos causados, independentemente de dolo ou culpa. Isso pode gerar incertezas jurídicas e econômicas para as empresas que desenvolvem e utilizam IA, aumentando a necessidade de seguros e medidas de mitigação de riscos.

Outro desafio significativo é o risco de a regulamentação ser superficial neste momento, prejudicando o desenvolvimento potencial da IA. Apressar a aprovação sem um debate aprofundado pode resultar em diretrizes que não cobrem adequadamente todos os aspectos da tecnologia, limitando a inovação e o crescimento do setor no Brasil.

O uso ético da IA não é um conceito novo e tem sido uma preocupação há décadas. Um exemplo marcante é o IBM Watson, uma plataforma de IA desenvolvida para analisar grandes volumes de dados e auxiliar em decisões complexas, especialmente na área da saúde. O Watson demonstrou o potencial da IA para melhorar diagnósticos médicos e personalizar tratamentos, sempre com um enfoque ético na utilização dos dados e na tomada de decisões.

A história do Watson e de outras tecnologias semelhantes mostra que a IA pode ser desenvolvida e utilizada de maneira ética e responsável. Isso exige um compromisso contínuo com a transparência, a responsabilidade e a proteção dos direitos dos usuários. A regulamentação da IA deve aprender com esses exemplos e garantir que novas tecnologias sigam princípios éticos rigorosos.

Entre os benefícios do PL 2338/2023 está a promoção de um ambiente seguro e transparente para o desenvolvimento e uso de IA no Brasil. A regulamentação clara protege os direitos dos usuários, previne abusos e promove a ética no uso de IA. Isso pode aumentar a confiança do público e atrair investimentos em inovação tecnológica. A criação de sandboxes regulatórios permite que novas tecnologias sejam testadas em um ambiente controlado, promovendo o avanço tecnológico enquanto se garante a segurança e a ética.

Comparado ao EU AI Act, que também classifica sistemas de IA por risco e exige avaliações de impacto sobre direitos fundamentais, o PL 2338/2023 reflete preocupações similares. Ambos os regulamentos promovem a transparência, a responsabilidade e a prevenção de vieses discriminatórios, garantindo que as interações com sistemas de IA sejam informadas e justas.

O PL 2338/2023 complementa outras leis brasileiras, como a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet (MCI), ao focar especificamente em sistemas de IA. A LGPD já estabelece princípios gerais de proteção de dados pessoais, enquanto o PL detalha como esses princípios se aplicam ao uso de IA, garantindo que a regulamentação seja abrangente e coerente.

Em resumo, o PL 2338/2023 representa um passo importante para a regulamentação da IA no Brasil, alinhando-se com práticas internacionais como o EU AI Act e complementando a estrutura regulatória existente no país. A sua aprovação e implementação eficaz serão cruciais para garantir que a IA seja utilizada de maneira ética, segura e benéfica para a sociedade. A votação iminente no Senado será um momento decisivo para definir como o Brasil trilhará os complexos terrenos da regulamentação da inteligência artificial.

Walter Calza Neto, DPO do Corinthians.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.