O Instituto Nacional de Proteção de Dados (INPD) encaminhou à Comissão Temporária Interna sobre Inteligência Artificial (CTIA) do Senado Federal as suas sugestões de pontos de adequações [1] ao Projeto de Lei nº 2338 [2], que define diversas regras relacionadas ao desenvolvimento e à implementação de sistemas de inteligência artificial por empresas. O projeto tem ainda como objetivo promover garantias às pessoas no que tange ao direito de saberem como lidar com um sistema de IA e compreenderem as decisões derivadas de decisões automatizadas.
As contribuições técnicas apresentadas pelo Instituto Nacional de Proteção de Dados tiveram origem a partir de um processo de escuta ativa das preocupações de associados e pesquisadores e que derivaram em sugestões que visam refinar e aperfeiçoar o texto em discussão.
"Apesar do claro esforço em apresentar uma regulação detalhada e com muitas obrigações direcionadas aos agentes de inteligência artificial, nossa percepção é que o texto falha ao tentar regular a tecnologia, e não suas aplicações. Nesse sentido, nossa proposição é pela alteração de conceitos demasiadamente amplos, bem como a harmonização do texto com fundamentos jurídicos já disseminados em solo nacional", destaca Rafael Reis, presidente do INPD.
Entre os pontos abordados, está a sugestão da alteração do termo "sistema de inteligência artificial" para "técnicas de inteligência artificial", que no entendimento do INPD proporciona uma regulação mais precisa e adequada na medida em que foca nas metodologias e usos específicos da tecnologia, em vez de tentar abranger a tecnologia em si.
No tocante às competências do órgão de coordenação do SIA, por exemplo, recomendou-se que a proposta regulatória em atenção ao previsto como fundamento da norma, o desenvolvimento econômico, tecnológico, científico e inovação, evite que os agentes não sofram mais de uma sanção por diferentes órgãos, evitando-se assim o "bis in idem".
Quanto a proposta da acreditação das instituições para a melhor efetividade do que proposto, sugeriu-se que elas detenham expertises relacionadas a atividade setorial em que o uso da IA se desenvolve, acrescidas dos conhecimentos técnicos da ciência da computação no ramo da IA.
Ponto de extrema relevância, por seus impactos diretos tanto aos atores envolvidos com a IA, quanto ao desenvolvimento seguro da própria tecnologia, a redação do artigo 33 do Projeto de Lei, em sua redação original, aplica-se tanto a casos de responsabilidade civil objetiva quanto subjetiva. Portanto, as excludentes previstas nos incisos I e II fornecem fundamentos para que os agentes de IA que causarem danos aos usuários, independentemente da classificação do risco de sua atividade e da espécie de responsabilidade civil, possam ser eximidos desde que as condições especificadas sejam comprovadas.
O INPD, avalia, no entanto, que este dispositivo deve ser revisado, tendo em vista que agentes que disponibilizarem técnicas de inteligência artificial de risco excessivo, proibidas pelo art. 13 do PL, e que atraem a regra da responsabilização objetiva, somente poderão arguir a excludente prevista no inciso I do art. 33. A possibilidade de isenção de responsabilidade deverá estar condicionada, neste casos específicos, à prova de ausência de envolvimento com a circulação, emprego ou proveito do sistema de IA, evitando-se , assim, o comprometimento ao princípio da reparação integral de danos previsto no art. 3º, IX, do PL.
Os agentes que disponibilizarem as práticas vedadas pelo art. 13, II, do PL, deverão assumir o risco integral por danos provocados, ainda que imputáveis aos usuários ou decorrentes de fortuito externo, evitando que o uso irresponsável e vedado legalmente não seja reparado.
Estas foram, portanto, algumas das sugestões para melhor adequação à proposta de regulação em questão, registrando mais uma vez que, o Instituto Nacional de Proteção de Dados – INPD- avalia que dada a relevância do tema, qualquer norma legal deve ser precedida de um intenso debate com a sociedade, especialmente com técnicos da ciência da computação e juristas, observando ainda os desdobramentos das regulações sobre a IA já em vigor, sobretudo o IA ACT, na União Europeia, possibilitando um aprendizado e amadurecimento a partir de desafios práticos que inevitavelmente serão apresentados à comunidade europeia.