Para INPD, PL da inteligência artificial deve regular aplicação, não tecnologia

0

O Instituto Nacional de Proteção de Dados (INPD) encaminhou à Comissão Temporária Interna sobre Inteligência Artificial (CTIA) do Senado Federal as suas sugestões de pontos de adequações [1] ao Projeto de Lei nº 2338 [2], que define diversas regras relacionadas ao desenvolvimento e à implementação de sistemas de inteligência artificial por empresas. O projeto tem ainda como objetivo promover garantias às pessoas no que tange ao direito de saberem como lidar com um sistema de IA e compreenderem as decisões derivadas de decisões automatizadas.

As contribuições técnicas apresentadas pelo Instituto Nacional de Proteção de Dados tiveram origem a partir de um processo de escuta ativa das preocupações de associados e pesquisadores e que derivaram em sugestões que visam refinar e aperfeiçoar o texto em discussão.

"Apesar do claro esforço em apresentar uma regulação detalhada e com muitas obrigações direcionadas aos agentes de inteligência artificial, nossa percepção é que o texto falha ao tentar regular a tecnologia, e não suas aplicações. Nesse sentido, nossa proposição é pela alteração de conceitos demasiadamente amplos, bem como a harmonização do texto com fundamentos jurídicos já disseminados em solo nacional", destaca Rafael Reis, presidente do INPD.

Entre os pontos abordados, está a sugestão da alteração do termo "sistema de inteligência artificial" para "técnicas de inteligência artificial", que no entendimento do INPD proporciona uma regulação mais precisa e adequada na medida em que foca nas metodologias e usos específicos da tecnologia, em vez de tentar abranger a tecnologia em si.

No tocante às competências do órgão de coordenação do SIA, por exemplo, recomendou-se que a proposta regulatória em atenção ao previsto como fundamento da norma, o desenvolvimento econômico, tecnológico, científico e inovação, evite que os agentes não sofram mais de uma sanção por diferentes órgãos, evitando-se assim o "bis in idem".

Quanto a proposta da acreditação das instituições para a melhor efetividade do que proposto, sugeriu-se que elas detenham expertises relacionadas a atividade setorial em que o uso da IA se desenvolve, acrescidas dos conhecimentos técnicos da ciência da computação no ramo da IA.

Ponto de extrema relevância, por seus impactos diretos tanto aos atores envolvidos com a IA, quanto ao desenvolvimento seguro da própria tecnologia, a redação do artigo 33 do Projeto de Lei, em sua redação original, aplica-se tanto a casos de responsabilidade civil objetiva quanto subjetiva. Portanto, as excludentes previstas nos incisos I e II fornecem fundamentos para que os agentes de IA que causarem danos aos usuários, independentemente da classificação do risco de sua atividade e da espécie de responsabilidade civil, possam ser eximidos desde que as condições especificadas sejam comprovadas.

O INPD, avalia, no entanto, que este dispositivo deve ser revisado, tendo em vista que agentes que disponibilizarem técnicas de inteligência artificial de risco excessivo, proibidas pelo art. 13 do PL, e que atraem a regra da responsabilização objetiva, somente poderão arguir a excludente prevista no inciso I do art. 33. A possibilidade de isenção de responsabilidade deverá estar condicionada, neste casos específicos, à prova de ausência de envolvimento com a circulação, emprego ou proveito do sistema de IA, evitando-se , assim, o comprometimento ao princípio da reparação integral de danos previsto no art. 3º, IX, do PL.

Os agentes que disponibilizarem as práticas vedadas pelo art. 13, II, do PL, deverão assumir o risco integral por danos provocados, ainda que imputáveis aos usuários ou decorrentes de fortuito externo, evitando que o uso irresponsável e vedado legalmente não seja reparado.

Estas foram, portanto, algumas das sugestões para melhor adequação à proposta de regulação em questão, registrando mais uma vez que, o Instituto Nacional de Proteção de Dados – INPD- avalia que dada a relevância do tema, qualquer norma legal deve ser precedida de um intenso debate com a sociedade, especialmente com técnicos da ciência da computação e juristas, observando ainda os desdobramentos das regulações sobre a IA já em vigor, sobretudo o IA ACT, na União Europeia, possibilitando um aprendizado e amadurecimento a partir de desafios práticos que inevitavelmente serão apresentados à comunidade europeia.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.