A Era da IA: desafios, riscos e a importância da regulação e do compliance

0

A inteligência artificial (IA) tem revolucionado diversas indústrias, desde a medicina até mesmo o direito. No entanto, seu uso traz consigo diversos dilemas e riscos, como evidenciado recentemente quando advogados foram multados em US$ 5 mil por apresentarem casos jurídicos gerados pelo ChatGPT, uma IA desenvolvida pela OpenAI. Um incidente que junto com outros casos isolados expõe os riscos da ferramenta, seus dilemas e impactos jurídicos, bem como a iminente necessidade de uma regulamentação mais estrita e com enfoque ao uso ético da IA.

Os desafios e impactos jurídicos da IA são substanciais Além da propriedade intelectual, direito autoral, dentre outros, a responsabilidade civil, em particular, apresenta um novo dilema jurídico complexo. Em teoria, a responsabilidade civil por ações tomadas por uma IA pode ser atribuída a diversas partes envolvidas no desenvolvimento, implantação e uso da tecnologia, mas isto ainda é um dilema jurídico a ser resolvido por meio de extensas pesquisas e investigações acadêmicas e jurídica. Fato é que o nível de responsabilidade, corresponsabilidade, responsabilidade solidária ou responsabilidade subsidiária pelos danos causados pelo uso indevido ou mesmo falhas e erros da ferramenta são difíceis. Por exemplo, um desenvolvedor da IA, se houver erros no código ou falhas no design que resultem em danos, ou o proprietário ou usuário da IA, se eles não tomarem as devidas precauções ao utilizar a tecnologia poderiam ser corresponsáveis? Ou mesmo a empresa? No machine learning, a solução é clara, porém com Inteligência Artificial, vez que os algoritmos "evoluem" e se constroem, a programação inicial muitas vezes é ultrapassada com o tempo, e a linha de responsabilização fica ainda mais tênue. Inegável que a atribuição de responsabilidade pode ser difícil na prática, dado o número de "players" envolvidos na criação e uso da IA, bem como a natureza descentralizada e global da tecnologia.

O dilema da responsabilidade civil também é agravado no contexto de difamação. Por exemplo, se a IA for programada e utilizada com o propósito de disseminar informações falsas ou prejudiciais sobre uma pessoa, é possível que a pessoa difamada possa buscar uma ação judicial contra quem programou ou controlou a IA – como caso recente no Brasil. Isso pode incluir uma empresa que desenvolveu a IA ou os indivíduos que a estão utilizando ou mesmo criadores de APIs e terceiros envolvidos. Porém, devido à quantidade elevada de partes necessárias para colocar uma IA em funcionamento – que pode incluir programadores, startups, empresas, investidores e usuários – a aplicação de responsabilidade justa e equitativa pode ser complexa e desafiadora.

Este incidente com o escritório de advocacia ressalta a necessidade urgente de uma regulamentação rigorosa e com enfoque na autorregulação (regulada), por meio de um compliance focado no uso ético da ferramenta de IA. É imperativo também que haja leis, regulamentos ou mesmo enunciados e jurisprudência claros que abordem a responsabilidade civil em casos de danos causados pela IA. Além disso, os desenvolvedores e usuários precisam adotar uma postura ética e com princípios que objetivam proteger o usuário final ou cliente ao lidar com a tecnologia, garantindo que ela seja usada de maneira responsável e que sejam tomadas medidas para minimizar os potenciais danos.

A IA é uma ferramenta poderosa que tem o potencial de trazer grandes benefícios para a sociedade. No entanto, seu uso também traz consigo novos desafios jurídicos e riscos significativos. É crucial que abordemos esses desafios de frente e estabeleçamos regulamentações claras e práticas éticas robustas para garantir que a IA seja usada de maneira benéfica e responsável.

Matheus Puppe, Advogado, sócio da área de TMT, Privacidade & Proteção de Dados do Maneira Advogados.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.