A inteligência artificial (IA) tem revolucionado diversas indústrias, desde a medicina até mesmo o direito. No entanto, seu uso traz consigo diversos dilemas e riscos, como evidenciado recentemente quando advogados foram multados em US$ 5 mil por apresentarem casos jurídicos gerados pelo ChatGPT, uma IA desenvolvida pela OpenAI. Um incidente que junto com outros casos isolados expõe os riscos da ferramenta, seus dilemas e impactos jurídicos, bem como a iminente necessidade de uma regulamentação mais estrita e com enfoque ao uso ético da IA.
Os desafios e impactos jurídicos da IA são substanciais Além da propriedade intelectual, direito autoral, dentre outros, a responsabilidade civil, em particular, apresenta um novo dilema jurídico complexo. Em teoria, a responsabilidade civil por ações tomadas por uma IA pode ser atribuída a diversas partes envolvidas no desenvolvimento, implantação e uso da tecnologia, mas isto ainda é um dilema jurídico a ser resolvido por meio de extensas pesquisas e investigações acadêmicas e jurídica. Fato é que o nível de responsabilidade, corresponsabilidade, responsabilidade solidária ou responsabilidade subsidiária pelos danos causados pelo uso indevido ou mesmo falhas e erros da ferramenta são difíceis. Por exemplo, um desenvolvedor da IA, se houver erros no código ou falhas no design que resultem em danos, ou o proprietário ou usuário da IA, se eles não tomarem as devidas precauções ao utilizar a tecnologia poderiam ser corresponsáveis? Ou mesmo a empresa? No machine learning, a solução é clara, porém com Inteligência Artificial, vez que os algoritmos "evoluem" e se constroem, a programação inicial muitas vezes é ultrapassada com o tempo, e a linha de responsabilização fica ainda mais tênue. Inegável que a atribuição de responsabilidade pode ser difícil na prática, dado o número de "players" envolvidos na criação e uso da IA, bem como a natureza descentralizada e global da tecnologia.
O dilema da responsabilidade civil também é agravado no contexto de difamação. Por exemplo, se a IA for programada e utilizada com o propósito de disseminar informações falsas ou prejudiciais sobre uma pessoa, é possível que a pessoa difamada possa buscar uma ação judicial contra quem programou ou controlou a IA – como caso recente no Brasil. Isso pode incluir uma empresa que desenvolveu a IA ou os indivíduos que a estão utilizando ou mesmo criadores de APIs e terceiros envolvidos. Porém, devido à quantidade elevada de partes necessárias para colocar uma IA em funcionamento – que pode incluir programadores, startups, empresas, investidores e usuários – a aplicação de responsabilidade justa e equitativa pode ser complexa e desafiadora.
Este incidente com o escritório de advocacia ressalta a necessidade urgente de uma regulamentação rigorosa e com enfoque na autorregulação (regulada), por meio de um compliance focado no uso ético da ferramenta de IA. É imperativo também que haja leis, regulamentos ou mesmo enunciados e jurisprudência claros que abordem a responsabilidade civil em casos de danos causados pela IA. Além disso, os desenvolvedores e usuários precisam adotar uma postura ética e com princípios que objetivam proteger o usuário final ou cliente ao lidar com a tecnologia, garantindo que ela seja usada de maneira responsável e que sejam tomadas medidas para minimizar os potenciais danos.
A IA é uma ferramenta poderosa que tem o potencial de trazer grandes benefícios para a sociedade. No entanto, seu uso também traz consigo novos desafios jurídicos e riscos significativos. É crucial que abordemos esses desafios de frente e estabeleçamos regulamentações claras e práticas éticas robustas para garantir que a IA seja usada de maneira benéfica e responsável.
Matheus Puppe, Advogado, sócio da área de TMT, Privacidade & Proteção de Dados do Maneira Advogados.