Os estereótipos de gênero encontrados nas IAs

0

O que vem à sua cabeça quando pensa nas assistentes virtuais Bia (Bradesco), Cris (Crefisa), Lu (Magazine Luíza), Alexa (Amazon), Siri (Apple), Cortana (Windows) e Nat (Natura)? Muito certamente você pensará ou na marca ou na imagem feminina associada a essas assistentes virtuais. Não é de hoje que as inteligências artificiais recebem nomes ou características humanas. Até na ficção, como em "2001: Uma Odisséia no Espaço" de 1968, temos HAL 9000, e tantos outros exemplos podem ser encontrados.

E assim como a vida imita a arte, não há como negar o sucesso que as IAs fazem hoje em dia. Duas pesquisas distintas realizadas pela Ilumeo apresentaram resultados interessantes sobre o uso dessas tecnologias, como o crescimento de 47% no uso de assistentes virtuais durante a pandemia, e a percepção positiva por 60% dos brasileiros quando o assunto são agentes de recomendação.

Não é para menos, afinal, elas estão conosco a todo momento, e podem tornar decisões e tarefas muito mais fáceis e rápidas, sendo que, um a cada cinco indivíduos até mesmo permitem que essas IAs tenham total autonomia sobre as escolhas de produtos. E isso acontece por um motivo bem simples: Identificação com o rosto ou personalidade daquela IA que passou por um processo de antropomorfização, isso é, de conseguir características que a façam se passar por uma pessoa.

Diante desse cenário em que o entendimento de humanos e robôs fica mais confuso a cada novo avanço tecnológico, os assédios e outras problemáticas machistas, vêm sendo direcionadas às interfaces – que são em sua maioria representadas por mulheres. Em Maio de 2019 a UNESCO já havia mencionado o tema com o estudo "I'd Blush If I Could" (Se pudesse, eu ficaria corada), que trouxe luz ao assunto ao analisar o problema sofrido pelas assistentes de voz.

A queridinha do momento, a Sam, da Samsung, que passou por um redesign no começo do mês de junho deste ano, e fez sucesso nas redes sociais principalmente por sua aparência, já vêm sofrendo com comentários de conotação sexual – algo que também pode ser encontrado por outros perfis de empresas que têm avatares femininos. Tudo isso leva a questão: porque existe uma discrepância tão grande entre as IAs masculinas e femininas?

Quando analisamos as preferências dos usuários que utilizam os agentes de recomendação, vemos que mais da metade dos respondentes demonstraram predileção por agentes do perfil feminino (51%) em detrimento daqueles de perfil masculino (46%). E isso talvez não seja apenas coincidência. De acordo com uma entrevista de Saniye Gülser Corat, ex-diretora da UNESCO para a Igualdade de Gênero, concedida à TIME, vozes e personalidade femininas muitas vezes são associadas ao ato de servir e ser dócil, ao invés de liderar. Praticamente colocando às IAs em uma posição similar ao que se via as mulheres de carne e osso durante os anos 50 e 60.

Sobretudo, o ponto-chave dessa questão também está na diversidade – ou falta dela – quando se fala do setor de TI. Isso porque, IAs são programadas a partir das percepções daqueles que as criam, ou seja, percepções preconceituosas quanto à gênero, etnia, ou sexualidade muitas vezes podem ser traduzidas com comportamentos como a subserviência das IAs femininas. Segundo o relatório da UNESCO, pelo menos 90% dos profissionais de TI responsáveis pelo comportamento das IAs são homens. Por isso, assim como já recomendado pela UNESCO, o ideal é realizar ações como a do Bradesco, e programar essas tecnologias de forma que respondam e desencorajem comportamentos nocivos, como assédios.

Camila Cruz, business unit manager da consultoria de  Data Science Ilumeo.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.