A ética como desafio ao uso da inteligência artificial na advocacia

0

O uso da inteligência artificial (IA) no Direito já é uma realidade. No exterior, sistemas de IA vem apoiando decisões de diversas cortes, e no Brasil, a IA já tem sido usada por inúmeros tribunais, STJ e até mesmo pelo STF. Inclusive o Conselho Nacional de Justiça (CNJ) disponibilizou acesso ao Painel de Projetos com Inteligência Artificial no Poder Judiciário[1], em dezembro de 2020, com o objetivo de reforçar a transparência e a ética no uso dessa tecnologia. Seguindo a mesma trilha, a IA também começa a ser utilizada na advocacia, ganhando capilaridade em todo o ecossistema jurídico.

Há sistemas de IA disponíveis tanto no mercado nacional quanto internacional com capacidade para executar variadas funcionalidades da área jurídica, baseados na técnica de deep learning, dentre as quais destacam-se: (i) pesquisas jurídicas (normas e jurisprudência); (ii) análise preditiva; (iii) análise e/ou elaboração de contratos; (iv) análise de documentos; (v) automação de expertise; e (vi) apoio em causas repetitivas.

Vale ressaltar que deep learning, subcampo do machine learning, é uma técnica empírica que vem tendo resultados positivos, com alto grau de acurácia, motivando a proliferação de sistemas de IA nela baseados, inclusive no campo do Direito. No entanto, embora esses sistemas de IA possam potencializar o trabalho do advogado, é premente a necessidade de compatibilizar o desenvolvimento e o uso da IA na advocacia com princípios éticos que norteiam as relações dos humanos, principalmente considerando as limitações dos próprios sistemas.

Os modelos baseados na técnica de deep learning são marcados pela existência do black box, que se traduz na incapacidade do sistema de explicar como ele obteve determinado resultado. Essa falta de transparência é inerente à própria forma como o modelo funciona. Assim, se um sistema de IA fornecer um resultado e esse puder restringir direitos e garantias fundamentais de um cidadão, diante da não explicabilidade, esse resultado não deveria ser o único a apoiar uma tomada de decisão por parte de um advogado ou juiz, por exemplo. Na mesma linha, profissionais do Direito precisam estar atentos às decisões judiciais que prejudiquem humanos, embasadas, exclusivamente, em resultados obtidos por sistemas de IA – o que pode ser considerado antiético – , sendo, quem sabe, mais um argumento favorável à anulação de tais julgados num futuro próximo.

O clássico caso do sistema Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) voltado para a aplicação de penas nos Estados Unidos, só reforça a necessidade de se adotar determinados cuidados ao fazer uso de IA no campo do Direito, inclusive a observância de preceitos éticos. Isso porque o COMPAS se revelou discriminatório, por oferecer resultados sobre o risco de reincidência no cometimento de crimes em maior percentual para negros do que brancos[2].

Por outro lado, os efeitos do black box poderiam ser mitigados se os desenvolvedores de sistemas de IA esclarecessem aos usuários todos os riscos inerentes aos modelos de IA, como: a falta de explicabilidade; a chance de obter resultados enviesados; a impossibilidade técnica do sistema de IA de analisar e refletir sobre o contexto; e a incapacidade do sistema de IA de analisar o resultado sob o ponto de vista ético, já que a ética é um preceito subjetivo.

Danilo Doneda e outros[3] pontuam alguns desafios éticos envolvendo o uso e desenvolvimento de sistemas de IA, dentre os quais destacamos aqueles que, a nosso ver, podem gerar impacto na advocacia: diminuição do controle humano; tentativa de diminuição da responsabilidade humana, caso haja participação de um sistema de IA num processo decisório; diminuição do valor das competências humanas; perda de confiança no próprio julgamento humano; resultados discriminatórios e injustos.

A União Europeia, no documento elaborado em 2019 conhecido como Diretrizes de Ética para IA Confiável, aponta para a importância do supervisionamento humano e possibilidade de intervenção humana no manejo dos sistemas de IA. Também destaca quatro princípios éticos que devem orientar o desenvolvimento e uso de sistemas de IA: (i) respeito à autonomia humana; (ii) prevenção contra o dano; (iii) justiça; e (iv) explicabilidade[4].

Resumidamente, o princípio do respeito à autonomia humana está relacionado à capacidade do humano de se manter autônomo frente a um sistema de IA, não devendo a IA substituir a atividade humana. O princípio da prevenção contra o dano reforça que sistemas de IA não devem ter o condão de causar dano a um ser humano, nem tampouco intensificar o dano. O princípio da justiça sugere que seja eliminado o viés dos modelos, para que resultados concedidos pelo sistema de IA sejam livres de discriminação, enquanto o princípio da explicabilidade propõe que os sistemas de IA sejam transparentes, capazes de demonstrar como foi possível chegar a um determinado resultado. Esse princípio da explicabilidade tem ensejado inúmeros debates na academia, e vem sendo difundido por autores como Luciano Floridi e outros[5].

A definição de diretrizes éticas norteadoras do uso e desenvolvimento dessas aplicações de IA voltadas para os mais diversos setores, inclusive o Direito, se farão necessárias para equilibrar esses desafios a serem enfrentados por profissionais do Direito que fazem uso da IA, principalmente advogados; por seus clientes, que são diretamente impactados pelo sucesso ou insucesso dos sistemas aplicados aos seus casos; e por desenvolvedores, que poderão estar sujeitos, inclusive, a serem responsabilizados civilmente, em caso de condutas consideradas antiéticas, determinadas, ou mesmo sugeridas pelos sistemas de IA por eles criados.

É certo que o estabelecimento de diretrizes éticas é essencial, mas pode vir a restringir a inovação e a evolução dessas tecnologias. Afinal, nem sempre o que se almeja, a exemplo da explicabilidade plena de como um sistema de IA, é tecnicamente possível. É preciso, portanto, estar atento aos avanços tecnológicos, mormente a IA voltada para o Direito, buscando sempre compatibilizar o melhor aproveitamento desses sistemas com a ética exigida pela sociedade. Só assim, humanos e máquinas poderão "conviver" harmoniosamente.

Priscila Reis, Advogada com mais de 18 anos de experiência, especialista em Direito Digital e novas tecnologias como Inteligência Artificial e Blockchain. 

Referências

[1] CONSELHO NACIONAL DE JUSTIÇA. Painel dá transparência a projetos de inteligência artificial no Judiciário. 23 dez. 2020. Disponível em: https://www.cnj.jus.br/painel-da-transparencia-a-projetos-de-inteligencia-artificial-no-judiciario/. Acesso em: 01 abr. 2020.

[2] NUNES, Dierle; MARQUES, Ana Luiza. Inteligência artificial e direito processual: Vieses algorítmicos e os riscos de atribuição de função decisória às máquinas. Revista de Processo, v. 285, 2018.

[3] DONEDA, Danilo; MENDES, Laura; SOUZA, Carlos; ANDRADE, Norberto. Considerações iniciais sobre inteligência artificial, ética e autonomia pessoal. Revista Pensar. Fortaleza, v. 23, n. 4, p. 1-17, out./dez. 2018. Disponível em: https://periodicos.unifor.br/rpen/article/view/8257.

[4] COMISSÃO EUROPEIA. Ethics Guideline for Trustworthy AI. 2019. Disponível em: https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top.

[5] FLORIDI, Luciano et al. AI4People – An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, v. 28, n. 4, p. 689-707, 2018. Disponível em: https://link.springer.com/article/10.1007/s11023-018-9482-5.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.