A incidência de vieses em processos de contratação sempre foi um tema de ampla discussão dentro da área de recursos humanos. Ao longo dos últimos dez anos, a chegada de novas tecnologias para o recrutamento contribuiu significantemente para reduzir e combater o chamado "bias". Em tese, ao automatizar a análise de currículos para determinada vaga com software, o fator de escolha humano seria naturalmente excluído e as pessoas seriam julgadas por critérios técnicos contidos nos seus currículos. Parece simples? Não, não é tão simples assim.
A explosão no uso de Inteligência Artificial generativa promovida pela rápida adoção do Open AI GPT em diversas áreas das empresas trouxe o tema novamente à tona e vem causando discussão nos Estados Unidos. No mês de março, a Bloomberg americana publicou uma matéria sobre a ocorrência de viés por parte do software, alegando que o mesmo tem uma tendência a desfavorecer candidatos que tenham sobrenomes latinos ou afro-americanos. Para embasar a reportagem, o veículo ouviu mais de 30 especialistas e fez o seu próprio experimento com a tecnologia, que levou à mesma conclusão.
À frente de uma empresa que há anos oferece inteligência artificial para recrutamento e desenvolvimento de pessoas, tendo achar que a culpa por este achado não é do Chat GPT em si. Não há dúvidas de que se trata de uma ferramenta fantástica para determinados usos, que tem uma capacidade de interação em linguagem natural inédita e, até por isso, se tornou o software mais rapidamente adotado da história. O problema está na sua adoção para determinadas atividades que demandam maior especialização.
E este é o caso das demandas por tecnologia e inteligência artificial da área de Recursos Humanos.
Como o GPT se tornou um fenômeno mundial, as empresas iniciaram uma corrida para entender as possibilidades da IA generativa para seus negócios. De outro lado, consultorias também aceleraram para oferecer novos produtos usando esta tecnologia que parecia fazer milagres.
Não é simples eliminar o viés de um processo seletivo. É preciso configurar a Inteligência Artificial diante de certos parâmetros, que garantam a mesma oportunidade para todos os participantes, independente de cor, raça, gênero ou descendência.
Uma dessas medidas fundamentais, por exemplo, é anonimizar os candidatos. Ou seja: o nome não deve ser algo a ser analisado pela IA, de forma que se preserve não apenas a origem familiar do candidato, mas também seu gênero. Uma medida básica que, se tivesse sido tomada, a matéria citada anteriormente sequer existiria. Nem mesmo este artigo.
No contexto de dados de gente, os desafios são ainda maiores. Estamos em uma etapa de estruturação dos dados para as máquinas possam compreender a real definição de uma característica humana, seja ela técnica ou comportamental, o que requer intensas pesquisas e testes seguros em ambiente controlado até que tenhamos segurança científica na adoção da IA como ferramenta de apoio a decisões. Nesse contexto o caminho da ciência quase sempre determina em começar pelo mais básico.
Para refletir, na medicina, os clínicos gerais têm um papel muito importante, mas é natural que se temos um problema na coluna, procuramos um especialista, provavelmente um ortopedista. Ambos têm os conhecimentos básicos da medicina, mas é claro que o especialista terá mais condições de tratar o problema, por ter mais conhecimento e experiência específica.
É o mesmo para adoção de tecnologias, em especial IA. Não há dúvidas de que a Inteligência Artificial Generativa é o futuro, mas na hora de escolher um software, é preciso cuidado para não entrar na "onda" da vez.
Como no caso dos médicos, os especialistas na matéria em questão são o melhor caminho.
Tiago Machado, CEO da Rocketmat.