Deu match! A tecnologia de encarceramento de corpos negros

0

Num mundo em que as relações estão cada vez mais virtuais, a possibilidade de histórias felizes a partir de um match são infinitas, assim como é relevante discutir o uso das tecnologias para o encarceramento. A relevância desse estudo reside na preservação dos corpos vulneráveis e na consolidação dos direitos democráticos, isto porque, a análise do reconhecimento facial e das políticas de segurança pública, a partir do uso da tecnologia, pode promover o encarceramento de corpos negros, dando volume a máquina coercitiva e punitivista do Estado.

Os sistemas de reconhecimento facial que utilizam a Inteligência Artificial estão repetindo o preconceito e racismo existente em nossa sociedade. Um estudo que envolveu a Universidade John Hopkins, o Instituto de Tecnologia da Geórgia, dos Estados Unidos, e a Universidade Técnica de Munique, na Alemanha, mostrou que os robôs marcaram 10% a mais pessoas negras como criminosas[1]. Reconhece-se, portanto, que discutir tais questões é determinar o direito à existência pública; é discutir Justiça e seletividade.

Ao identificar como o Estado se orienta na tomada de suas decisões, nos processos de implementação do uso de tecnologias na área de segurança pública e nas formas de provisão e composição dos serviços públicos, constata-se uma política de Estado que define quem deve ter liberdade e quem deve ser encarcerada. Para isso, o Estado utiliza o sistema de vigilância para o encarceramento de grupos específicos do sistema de classes, capaz de realizar a efetiva garantia dos direitos fundamentais, livrando aqueles pertencentes a determinados grupos minoritários, o totalitarismo e os arbítrios estatais.

Em que pese às considerações entre democracia, justiça e desigualdade econômica, minimizar a vulnerabilidade dos corpos negros não é apenas reduzir a desigualdade econômica ou aparelhar o Estado, para que os direitos civis e políticos sejam preservados e correlacionados. É salutar que a comissão de juristas do Senado encarregada de elaborar a regulamentação da Inteligência Artificial tenha no horizonte dos debates o quão falha e segredadora pode ser a tecnologia, ao reproduzir padrões de estruturas discriminatórias e racistas[2].

E nesse sentido, parafraseando Beatriz do Nascimento, o grande problema não é social – em que pese a questão da desigualdade econômica ser por vezes fundo de análise da questão criminal – o problema é o status entre os indivíduos, é o não reconhecimento do negro enquanto sujeito de direitos, o que leva ao status de vulnerável. (FILME ORI). Questão que pode ser revista também pela perspectiva constitucional.

Sob a ótica da LGPD (Lei Geral de Proteção de Dados), há possível mácula dos direitos e garantias fundamentais inerentes à pessoa humana – tornando-se pressuposto de reflexão no que tange ao projeto de segurança pública, que vem se desenvolvendo em face de corpos vigiados numa engrenagem perfeita do necropoder, escolhendo de forma pontual e organizada, quem deve viver e quem deve morrer.

Camila Lima, advogada e integrante da Comissão de Igualdade Racial da OAB SP

[1] https://www.uol.com.br/tilt/noticias/redacao/2022/06/22/robos-autonomos-podem-ser-racistas-pesquisadores-mostram-que-sim.htm

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.