Por que cães e algoritmos ainda não estão prontos para tomar decisões importantes sozinhos?

0

No início do século 20, o experimento do Cão de Pavlov explorou o condicionamento e repetição para causar a sensação de salivamento em cães, mesmo na ausência de comida. Através da associação de um estímulo neutro, como uma campainha, com a comida repetidamente, os cães passaram a associar o som ao alimento, correndo em direção ao prato e salivando, mesmo que estivesse vazio. Esse experimento demonstrou como um estímulo inicialmente neutro poderia desencadear respostas completamente novas nos animais por meio de associações repetidas.

Embora possamos abstrair o exemplo lúdico ilustrado, é possível perceber uma neutralidade semelhante na inteligência artificial (IA), que supostamente busca automatizar processos de forma imparcial, segura e eficiente. No entanto, é comum observar episódios em que algoritmos treinados com bases de dados rasas e não representativas adquirem aprendizados enviesados que levam a decisões prejudiciais aos direitos fundamentais dos seres humanos. Por essa razão, o artigo 22 do Regulamento Geral de Proteção de Dados (GDPR) europeu estabeleceu o direito de uma pessoa não ser sujeitada a decisões totalmente automatizadas, enquanto o artigo 20 da Lei Geral de Proteção de Dados (LGPD) confere ao titular o direito de solicitar a revisão dessas decisões.

Alguns casos notórios confirmam os riscos mencionados, como o episódio envolvendo a Amazon em 2015, quando foi revelado que seu sistema de recrutamento promovia discriminação de gênero contra candidatas para cargos técnicos na empresa. Esse viés ocorreu porque a ferramenta utilizada se baseava em arquivos com perfis dos candidatos dos últimos 10 anos, que consistiam principalmente de homens. Assim, o sistema de inteligência artificial aprendeu que os candidatos do sexo masculino eram mais preferíveis, excluindo currículos que mencionavam a palavra "mulher", como "Capitã do Clube de Xadrez de Mulheres".

É essencial realizar um Relatório de Impacto em Privacidade (RIPD/DPIA) durante o desenvolvimento dessas ferramentas, a fim de analisar como seu modo de operação pode impactar as pessoas cujos dados foram submetidos a elas. O RIPD consideraria aspectos como: i) a capacidade comprovada do sistema em cumprir um propósito legítimo; ii) os possíveis prejuízos causados aos indivíduos; iii) a viabilidade de tornar o processo de decisão explicável, reproduzível, rastreável e auditável, eliminando a opacidade; iv) a necessidade de treinar os algoritmos de forma imparcial, sem vieses.

Assim como Pavlov condicionou seus cães a salivar e correr em direção a um prato sem comida, os cientistas de dados podem contribuir para o viés de seus algoritmos ao alimentá-los com bases de dados rasas e não representativas, permitindo que esses dados influenciem as decisões. Isso ocorre principalmente porque o treinamento dessas ferramentas, conhecido como "machine learning", requer uma enorme quantidade de dados, tornando o desenvolvimento delas consideravelmente dispendioso.

Além disso, muitas vezes os conjuntos de dados usados para treinar essas máquinas já estão enraizados em aspectos discriminatórios, não representativos e não inclusivos, como foi evidenciado no caso mencionado. Dessa forma, as máquinas têm reproduzido e consolidado inclinações censuráveis existentes na sociedade humana. Como apontado pela filósofa de tecnologia Shannon Vallor, "Não há valores independentes da máquina; os valores das máquinas são valores humanos".

A boa notícia é que, enquanto um cão leva em média uma década para ser treinado, a IA, que remonta à década de 1940, não possui perspectiva de descontinuação. Com menos de um século desde sua concepção, é provável que ela ainda não tenha atingido todo o seu potencial e possa ser continuamente aperfeiçoada, otimizada e, acima de tudo, "liderada por humanos para proteger os valores humanos" [1].

Antonielle Freitas, DPO (Data Protection Officer) e head da área de proteção de dados do escritório Viseu Advogados e Jessica Fernandes Rocham, advogada da área de proteção de dados do escritório Viseu Advogados.

Nota:

[1] BARZOTTO, L. C.; GRAMINHO, V. M. C. LGPD e Fraternidade: Limites à Utilização dos Algoritmos Discriminatórios nas Relações de Trabalho. In: MIZIARA, R.; MOLLICONE, B.; PESSOA, A. (coord.). Reflexos da LGPD no direito e no processo do trabalho. São Paulo: Thomson Reuters Brasil, 2022. p. 329.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.