Cada vez mais, a Inteligência Artificial (IA) faz parte do nosso cotidiano, às vezes em situações que nem percebemos. Por exemplo, quando pedimos comida por um aplicativo ou o entregador usa um GPS que planeja a melhor rota para fazer a entrega. Ela está presente nos serviços de streaming, redes sociais, atendimento ao cliente, entre outros.
Os algoritmos vem trazendo muitos benefícios em frentes importantes como saúde, educação, ciência, serviços financeiros, indústria, etc. Mas nos últimos anos, testemunhamos episódios de viés de IA, que incluem discriminação racial e de gênero em vários domínios, incluindo reconhecimento facial, ferramentas de triagem de candidatos a emprego, acesso a crédito ou até mesmo diagnóstico médico. Segundo estudo do Gartner, em 2022, 85% dos projetos de Inteligência Artificial fornecerão resultados errôneos devido ao viés de dados, algoritmos ou dos times responsáveis por gerenciá-los.
A falta de regulamentação nas áreas de Justiça, Responsabilidade, Transparência e Ética (Fairness, Accountability, Transparency, and Ethics – FATE) em IA criou um problema mundial que deverá crescer substancialmente nos próximos anos se os líderes da indústria e os governos não agirem rapidamente.
O impacto na setor de serviços financeiros
Particularmente na indústria financeira, há um risco de que os sistemas de IA neguem o acesso à serviços para pessoas de diferentes grupos, com base na raça, idade, local de residência, profissão ou situação de emprego. O acesso aos serviços bancários hoje é primordial, especialmente porque a pandemia causou uma transição para os pagamentos digitais.
Apesar da recente conscientização, o uso da equidade como objetivo ao desenvolver IA ainda não é uma prática padrão. Há uma falta de metodologias e ferramentas práticas para melhorar a equidade para os profissionais, e o desenvolvimento de modelos menos tendenciosos enfrenta três desafios principais:
- Os profissionais não têm certeza de como medir a equidade e supõem que o custo é caro (que modelos muito menos tendenciosos também precisam ser muito menos precisos);
- Os profissionais supõem que as decisões estão fora do seu alcance, frequentemente afirmando que os modelos não são tendenciosos, os dados é que são tendenciosos;
- Os profissionais supõem que a criação de modelos mais justos é complexa em termos de atividades de construção de modelos e cara em termos de tempo.
Como evitar o viés na inteligência artificial
O primeiro passo é identificar o viés na IA, o que já é um grande desafio. Se não medirmos, como podemos lidar com a situação? Citei alguns casos mais evidentes e alarmantes de discriminação, mas alguns algoritmos podem estar trabalhando e penalizando grupos específicos.
Felizmente, existem agora ferramentas e processos para incorporar a equidade desde a fase de concepção, permitindo, em última análise, tanto uma automatização operacionalmente vantajosa como equitativa. Existem, de fato, estruturas de machine learning avançadas que podem reduzir o enviesamento e otimizar a equidade na IA.
Mas para desenvolver um modelo ideal, precisamos também envolver uma equipe diversificada no desenvolvimento do projeto. Provavelmente, erros serão detectados em uma fase inicial tendo visões diferentes do que está sendo proposto.
Ao não medir e prevenir o viés, as instituições financeiras perpetuam comportamentos de IA que, em última análise, têm um impacto negativo na forma como as pessoas usam produtos e serviços bancários. A adoção de tecnologia que lida com viés de forma eficiente e flexível ajuda a mitigar erros e injustiças, permitindo que os clientes tenham acesso menos discriminatório aos produtos financeiros, promovendo seu bem-estar econômico e acesso aos serviços na era digital.
Pedro Saleiro, diretor de Research Data Science da Feedzai.