"Equidade" é um conceito complicado de se abordar no mundo dos negócios. Para a Inteligência Artificial (IA) representa uma arma afiada que pode ser usada para níveis de benevolência sem precedentes, à medida que as empresas procuram se tornar livres da discriminação.
Mas vamos voltar um pouco: sempre que olhamos para os dados, descobrimos rapidamente que as decisões humanas são inerentemente injustas. Isso não quer dizer certo ou errado, porque muitas vezes é algo muito subjetivo. Porém, literalmente injusto. Isso ocorre porque o mundo em que vivemos está desequilibrado, portanto os dados que refletem este mundo se tornam tendencioso na sua natureza.
Na sociedade, vemos isso todos os dias. Os ricos devem pagar impostos mais altos? Muitos diriam que é justo. No entanto, se cobraria mais daquela mesma pessoa rica por um pão? A ideia de gasto proporcional a renda, torna-se inconsistente, e talvez isso seja injusto por si só.
Agora aplique essa noção à IA – um sistema no qual os dados são alimentados em uma máquina para que o algoritmo derive as decisões resultantes para os humanos agirem com maior precisão do que eles próprios poderiam alcançar.
Viés histórico
Agora aplique essa noção à IA: um sistema no qual os dados são alimentados em uma máquina para que o algoritmo obtenha as decisões resultantes para que os humanos ajam com mais precisão do que eles próprios poderiam alcançar.
Se os dados que estão sendo alimentados estão contaminados por tendências históricas, é nisso que dependemos para tomar decisões futuras. Esse ciclo não só continuará, mas será exacerbado a um grau sem precedentes.
Por exemplo, os padrões de contratação. Gênero e raça são os parâmetros clássicos que a maioria das empresas busca equilibrar e tornar "justo". Se as tendências históricas e os dados prejudicam o objetivo pretendido da IA, então uma intervenção humana precisa ser tomada sobre quais informações alimentam o algoritmo.
Sem orientação à equidade, o Machine Learning (ML) ainda pode descobrir os melhores candidatos, mas não há garantia de que ela vai aderir a uma cota ou lidar com a discriminação, se depender apenas de evidências discriminatórias para tomar suas decisões.
Alguns exemplos em que a IA foi deixada por conta própria enfatizam a batalha ética em questão:
– Descobriu-se que a tecnologia de reconhecimento facial funciona muito melhor para brancos do que para outras etnias (e homens melhor do que mulheres) porque foi testada e treinada, principalmente em norte-americanos brancos. Na China, com produtos locais, acontece o contrário, com rostos europeus mais difíceis de se identificar.
– Do ponto de vista de gênero, a Amazon foi desafiada por seus processos seletivos, que se revelaram mais baseados no sexo masculino, em decorrência da base de dados históricos (com decisões injustas).
Esses resultados foram inicialmente surpreendentes. Pelo menos, o problema foi identificado. A comunidade de IA aproveitou isso como uma oportunidade para desenvolver algoritmos melhores que podem aprender a tomar decisões justas, a partir de dados injustos. Agora muitas empresas tomam o cuidado de usar dados de treinamento mais equilibrados. É um passo na direção certa, embora ainda haja trabalho a ser feito.
Quem decide o que é justo?
As empresas precisam armar a IA com os dados corretos. Ela precisa de um conjunto de instruções ético e sem preconceitos, para remover o preconceito humano, mas também as inadequações históricas, para que o equilíbrio possa ser alcançado em um grau ideal.
A boa notícia é que os algoritmos e as "instruções" são relativamente fáceis de adaptar. A tecnologia está aí, pronta e a espera para remover a discriminação.
Mas, quem decide o que é certo?
Você não apenas tem que estabelecer o que é "certo", mas também quantificar isso de uma forma que possa ser calculada pelos tipos de sistemas que criamos.
Deveria haver o mesmo número de professores de TI do sexo masculino e feminino, mesmo que haja cinco vezes mais de homens estudando TI? Você pode deduzir que as mulheres não tiveram a mesma oportunidade ou incentivo para buscar TI e decidir que é realmente justo lidar com esse equilíbrio mais adiante?
Em contrapartida, a medicina na Alemanha é composta por dois terços de mulheres. Mas a engenharia eletrônica tem uma proporção aproximada de 70% a 30% noutra direção. Portanto, é justo aproveitar de 50 a 50 oportunidades quando se trata de contratação, ou a instrução de IA deve refletir essa diferença potencialmente social?
Quando se trata de negócios, a equidade social é uma rede de complexidade, e é preciso estabelecer o que se avalia como ético para alcançar esses objetivos.
Uma arma afiada para empunhar
Quando as diretrizes éticas forem estabelecidas, a IA se tornará um divisor de águas. É por isso que a Alemanha e a França, dois países europeus, trouxeram o assunto para a mesa, durante o evento, AIXIA, sobre Inteligência Artificial.
É significativo tomar a decisão sobre o que é justo e, em seguida, colocá-lo em uma máquina que funcionará precisamente contra essas definições de justiça. Pode ser um grande nivelador para algumas das discriminações mais flagrantes vistas nas áreas de RH, disparidades salariais, etc.
É claro que, se uma noção controversa ou mesmo injusta for carregada na ML,então esse status quo discriminatório ou antiético seria agravado. Mas quando usados para o bem, temos uma arma afiada em nossas mãos – feita de dados e algoritmos que podem desfazer desequilíbrios culturais, históricos e sociais entre os setores de uma maneira muito mais rápida do que poderíamos aplicar.
A razão de seu potencial é simples: elimina os mesmos preconceitos e influências humanas que criaram tais desigualdades em primeiro lugar.
A IA trabalha com dados. E enquanto os dados fornecidos a esses algoritmos forem aguçados com boas intenções, então teremos uma arma muito poderosa para usar na luta contra a discriminação. Os recentes incidentes discriminatórios e os protestos globais em todo o mundo contra ela, mostram o qual necessária é tal arma.
Michael Feindt, consultor estratégico de Blue Yonder. Uma estrela do rock no mundo da IA, Michael é um físico e cientista de dados. O algoritmo NeuroBayes de Michael, desenvolvido durante seus muitos anos de pesquisa científica no CERN, permite que os varejistas automatizem decisões complexas em toda a cadeia de valor. Ele é professor do Karlsruhe Institute of Technology (KIT), Alemanha, e professor da Data Science Academy.