A Inteligência Artificial (IA) tem o poder de transformar positivamente a sociedade e o meio ambiente, e para aproveitar esse poder em todo o seu potencial, as organizações precisam se concentrar em enfrentar os desafios éticos. De acordo com o novo relatório do Capgemini Research Institute, “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust,” (em tradução livre, “IA e o enigma ético: como as organizações podem construir sistemas de IA eticamente robustos e ganhar confiança”), que descobriu que a parcela de clientes que acreditam que as organizações estão sendo totalmente transparentes sobre como é feito o uso de seus dados pessoais caiu de 76% em 2019 para 62% hoje.
O relatório também descobriu que apenas 53% das organizações têm um líder responsável pela ética dos sistemas de IA, e que a governança e a responsabilidade pela IA e a implementação de ferramentas e estruturas pragmáticas para os sistemas de IA a serem desenvolvidos e usados têm um alto custo para as organizações.
O relatório observa que, embora as organizações estejam mais conscientes do ponto de vista ético, o progresso na implementação de IA ética tem sido inconsistente. Por exemplo, quase a mesma proporção de executivos em 2019 disse que tomou medidas para construir “equidade” (65% em 2020 vs. 66% em 2019) e “auditabilidade” (45% em 2020 vs. 46% em 2019) dimensões de seus sistemas de IA; além disso, a transparência caiu de 73% para 59%, apesar do fato de 58% das empresas afirmarem que estão conscientizando os funcionários sobre os problemas que podem resultar do uso de IA. A pesquisa também revela que 70% dos clientes desejam uma explicação clara dos resultados e esperam que as organizações forneçam interações de IA transparentes e justas.
Viés discriminatório de sistemas de IA e experiências negativas de clientes de IA têm um alto custo para as organizações
Como as organizações públicas e privadas continuam a implementar cada vez mais uma variedade de tecnologias de IA, é fundamental para elas manter a confiança do cliente promovendo relacionamentos positivos entre a IA e os consumidores. No entanto, os relatórios mostram que os conjuntos de dados coletados para a saúde e o setor público estão sujeitos a preconceitos sociais e culturais [1].
Isso não se limita apenas ao setor público. A pesquisa da Capgemini descobriu que 65% dos executivos disseram estar cientes da questão do viés discriminatório com os sistemas de IA. Além disso, cerca de 60% das organizações atraíram o escrutínio jurídico e 22% enfrentaram uma reação negativa do cliente nos últimos 2 a 3 anos devido a decisões tomadas por sistemas de IA. Na verdade, 45% dos clientes notaram que compartilharão suas experiências negativas com a família e amigos e podem exortar que eles não se envolvam com uma organização, 39% exporão suas preocupações à organização e exigirão uma explicação e 39% deixarão a IA como canal para uma interação humana de custo mais alto. Mais de um quarto dos consumidores (27%) afirmam que deixariam de lidar com a organização por completo.
Estabeleça a propriedade das questões éticas – os líderes devem ser responsáveis
Apenas 53% das organizações têm um líder que é responsável pela ética dos sistemas de IA em sua organização, como um Diretor de Ética. É crucial estabelecer a liderança no topo para garantir que essas questões recebam a devida prioridade da alta administração e para criar sistemas de IA eticamente robustos.
Além disso, os líderes nas funções de negócios e tecnologia devem ser totalmente responsáveis pelos resultados éticos das aplicações de IA. Nossa pesquisa mostra que apenas metade disse ter uma linha direta confidencial ou ombudsman para permitir que clientes e funcionários levantassem questões éticas com sistemas de IA.
A governança ética tornou-se um pré-requisito
A necessidade de as organizações implementarem uma carta ética também é impulsionada por estruturas regulatórias cada vez maiores. Por exemplo, a Comissão Europeia emitiu orientações sobre os princípios éticos fundamentais que devem ser usados para conceber aplicações de IA [2]. Enquanto isso, as diretrizes emitidas pela Comissão Federal de Comércio dos Estados Unidos (FTC) no início de 2020 exigem IA transparente [3], afirmando que quando um sistema habilitado para IA toma uma decisão adversa (como recusar crédito para um cliente), a organização deve mostrar ao consumidor afetado os principais pontos de dados usados para chegar à decisão e dar-lhe o direito de alterar qualquer informação incorreta. No entanto, embora 73% das organizações globalmente tenham informado os usuários sobre as maneiras pelas quais as decisões de IA podem afetá-los em 2019, hoje, esse número caiu para 59%.
De acordo com o relatório, isso é um indicativo das circunstâncias atuais trazidas pelo COVID-19, bem como das necessidades sociais e ambientais, da crescente complexidade dos modelos de IA e de uma mudança no comportamento do consumidor, que afetaram as funcionalidades dos modelos de IA existentes. Novos fatores, incluindo preferência por segurança, compra em massa e falta de dados de treinamento para situações semelhantes do passado, significa que as organizações estão redesenhando seus sistemas para se adequarem a um novo padrão; no entanto, isso levou a menos transparência.
O relatório destaca sete ações-chave para as organizações construírem um sistema de IA eticamente robusto, com cada uma sendo sustentada por uma base sólida de liderança, governança e práticas internas:
-Descreva claramente a finalidade pretendida dos sistemas de IA e avalie seu impacto potencial geral;
-Implemente IA de maneira proativa para o benefício da sociedade e do meio ambiente;
-Incorpore princípios de diversidade e inclusão de forma proativa ao longo do ciclo de vida dos sistemas de IA;
-Aumente a transparência com a ajuda de ferramentas de tecnologia;
-Humanize a experiência de IA e garantir a supervisão humana dos sistemas de IA;
-Garanta a robustez tecnológica dos sistemas de IA;
-Proteja a privacidade individual das pessoas, capacitando-as e colocando-as no comando das interações de IA.