No início do século 20, o experimento do Cão de Pavlov explorou o condicionamento e repetição para causar a sensação de salivamento em cães, mesmo na ausência de comida. Através da associação de um estímulo neutro, como uma campainha, com a comida repetidamente, os cães passaram a associar o som ao alimento, correndo em direção ao prato e salivando, mesmo que estivesse vazio. Esse experimento demonstrou como um estímulo inicialmente neutro poderia desencadear respostas completamente novas nos animais por meio de associações repetidas.
Embora possamos abstrair o exemplo lúdico ilustrado, é possível perceber uma neutralidade semelhante na inteligência artificial (IA), que supostamente busca automatizar processos de forma imparcial, segura e eficiente. No entanto, é comum observar episódios em que algoritmos treinados com bases de dados rasas e não representativas adquirem aprendizados enviesados que levam a decisões prejudiciais aos direitos fundamentais dos seres humanos. Por essa razão, o artigo 22 do Regulamento Geral de Proteção de Dados (GDPR) europeu estabeleceu o direito de uma pessoa não ser sujeitada a decisões totalmente automatizadas, enquanto o artigo 20 da Lei Geral de Proteção de Dados (LGPD) confere ao titular o direito de solicitar a revisão dessas decisões.
Alguns casos notórios confirmam os riscos mencionados, como o episódio envolvendo a Amazon em 2015, quando foi revelado que seu sistema de recrutamento promovia discriminação de gênero contra candidatas para cargos técnicos na empresa. Esse viés ocorreu porque a ferramenta utilizada se baseava em arquivos com perfis dos candidatos dos últimos 10 anos, que consistiam principalmente de homens. Assim, o sistema de inteligência artificial aprendeu que os candidatos do sexo masculino eram mais preferíveis, excluindo currículos que mencionavam a palavra "mulher", como "Capitã do Clube de Xadrez de Mulheres".
É essencial realizar um Relatório de Impacto em Privacidade (RIPD/DPIA) durante o desenvolvimento dessas ferramentas, a fim de analisar como seu modo de operação pode impactar as pessoas cujos dados foram submetidos a elas. O RIPD consideraria aspectos como: i) a capacidade comprovada do sistema em cumprir um propósito legítimo; ii) os possíveis prejuízos causados aos indivíduos; iii) a viabilidade de tornar o processo de decisão explicável, reproduzível, rastreável e auditável, eliminando a opacidade; iv) a necessidade de treinar os algoritmos de forma imparcial, sem vieses.
Assim como Pavlov condicionou seus cães a salivar e correr em direção a um prato sem comida, os cientistas de dados podem contribuir para o viés de seus algoritmos ao alimentá-los com bases de dados rasas e não representativas, permitindo que esses dados influenciem as decisões. Isso ocorre principalmente porque o treinamento dessas ferramentas, conhecido como "machine learning", requer uma enorme quantidade de dados, tornando o desenvolvimento delas consideravelmente dispendioso.
Além disso, muitas vezes os conjuntos de dados usados para treinar essas máquinas já estão enraizados em aspectos discriminatórios, não representativos e não inclusivos, como foi evidenciado no caso mencionado. Dessa forma, as máquinas têm reproduzido e consolidado inclinações censuráveis existentes na sociedade humana. Como apontado pela filósofa de tecnologia Shannon Vallor, "Não há valores independentes da máquina; os valores das máquinas são valores humanos".
A boa notícia é que, enquanto um cão leva em média uma década para ser treinado, a IA, que remonta à década de 1940, não possui perspectiva de descontinuação. Com menos de um século desde sua concepção, é provável que ela ainda não tenha atingido todo o seu potencial e possa ser continuamente aperfeiçoada, otimizada e, acima de tudo, "liderada por humanos para proteger os valores humanos" [1].
Antonielle Freitas, DPO (Data Protection Officer) e head da área de proteção de dados do escritório Viseu Advogados e Jessica Fernandes Rocham, advogada da área de proteção de dados do escritório Viseu Advogados.
Nota:
[1] BARZOTTO, L. C.; GRAMINHO, V. M. C. LGPD e Fraternidade: Limites à Utilização dos Algoritmos Discriminatórios nas Relações de Trabalho. In: MIZIARA, R.; MOLLICONE, B.; PESSOA, A. (coord.). Reflexos da LGPD no direito e no processo do trabalho. São Paulo: Thomson Reuters Brasil, 2022. p. 329.