Publicidade
Início Notícias Gestão 70% dos clientes esperam que as organizações forneçam interações de IA transparentes...

70% dos clientes esperam que as organizações forneçam interações de IA transparentes e justas

0
Publicidade

A Inteligência Artificial (IA) tem o poder de transformar positivamente a sociedade e o meio ambiente, e para aproveitar esse poder em todo o seu potencial, as organizações precisam se concentrar em enfrentar os desafios éticos. De acordo com o novo relatório do Capgemini Research Institute, “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust,” (em tradução livre, “IA e o enigma ético: como as organizações podem construir sistemas de IA eticamente robustos e ganhar confiança”), que descobriu que a parcela de clientes que acreditam que as organizações estão sendo totalmente transparentes sobre como é feito o uso de seus dados pessoais caiu de 76% em 2019 para 62% hoje.

O relatório também descobriu que apenas 53% das organizações têm um líder responsável pela ética dos sistemas de IA, e que a governança e a responsabilidade pela IA e a implementação de ferramentas e estruturas pragmáticas para os sistemas de IA a serem desenvolvidos e usados têm um alto custo para as organizações.

O relatório observa que, embora as organizações estejam mais conscientes do ponto de vista ético, o progresso na implementação de IA ética tem sido inconsistente. Por exemplo, quase a mesma proporção de executivos em 2019 disse que tomou medidas para construir “equidade” (65% em 2020 vs. 66% em 2019) e “auditabilidade” (45% em 2020 vs. 46% em 2019) dimensões de seus sistemas de IA; além disso, a transparência caiu de 73% para 59%, apesar do fato de 58% das empresas afirmarem que estão conscientizando os funcionários sobre os problemas que podem resultar do uso de IA. A pesquisa também revela que 70% dos clientes desejam uma explicação clara dos resultados e esperam que as organizações forneçam interações de IA transparentes e justas.

Viés discriminatório de sistemas de IA e experiências negativas de clientes de IA têm um alto custo para as organizações

Como as organizações públicas e privadas continuam a implementar cada vez mais uma variedade de tecnologias de IA, é fundamental para elas manter a confiança do cliente promovendo relacionamentos positivos entre a IA e os consumidores. No entanto, os relatórios mostram que os conjuntos de dados coletados para a saúde e o setor público estão sujeitos a preconceitos sociais e culturais [1].

Isso não se limita apenas ao setor público. A pesquisa da Capgemini descobriu que 65% dos executivos disseram estar cientes da questão do viés discriminatório com os sistemas de IA. Além disso, cerca de 60% das organizações atraíram o escrutínio jurídico e 22% enfrentaram uma reação negativa do cliente nos últimos 2 a 3 anos devido a decisões tomadas por sistemas de IA. Na verdade, 45% dos clientes notaram que compartilharão suas experiências negativas com a família e amigos e podem exortar que eles não se envolvam com uma organização, 39% exporão suas preocupações à organização e exigirão uma explicação e 39% deixarão a IA como canal para uma interação humana de custo mais alto. Mais de um quarto dos consumidores (27%) afirmam que deixariam de lidar com a organização por completo.

Estabeleça a propriedade das questões éticas – os líderes devem ser responsáveis

Apenas 53% das organizações têm um líder que é responsável pela ética dos sistemas de IA em sua organização, como um Diretor de Ética. É crucial estabelecer a liderança no topo para garantir que essas questões recebam a devida prioridade da alta administração e para criar sistemas de IA eticamente robustos.

Além disso, os líderes nas funções de negócios e tecnologia devem ser totalmente responsáveis pelos resultados éticos das aplicações de IA. Nossa pesquisa mostra que apenas metade disse ter uma linha direta confidencial ou ombudsman para permitir que clientes e funcionários levantassem questões éticas com sistemas de IA.

A governança ética tornou-se um pré-requisito

A necessidade de as organizações implementarem uma carta ética também é impulsionada por estruturas regulatórias cada vez maiores. Por exemplo, a Comissão Europeia emitiu orientações sobre os princípios éticos fundamentais que devem ser usados para conceber aplicações de IA [2]. Enquanto isso, as diretrizes emitidas pela Comissão Federal de Comércio dos Estados Unidos (FTC) no início de 2020 exigem IA transparente [3], afirmando que quando um sistema habilitado para IA toma uma decisão adversa (como recusar crédito para um cliente), a organização deve mostrar ao consumidor afetado os principais pontos de dados usados para chegar à decisão e dar-lhe o direito de alterar qualquer informação incorreta. No entanto, embora 73% das organizações globalmente tenham informado os usuários sobre as maneiras pelas quais as decisões de IA podem afetá-los em 2019, hoje, esse número caiu para 59%.

De acordo com o relatório, isso é um indicativo das circunstâncias atuais trazidas pelo COVID-19, bem como das necessidades sociais e ambientais, da crescente complexidade dos modelos de IA e de uma mudança no comportamento do consumidor, que afetaram as funcionalidades dos modelos de IA existentes. Novos fatores, incluindo preferência por segurança, compra em massa e falta de dados de treinamento para situações semelhantes do passado, significa que as organizações estão redesenhando seus sistemas para se adequarem a um novo padrão; no entanto, isso levou a menos transparência.

O relatório destaca sete ações-chave para as organizações construírem um sistema de IA eticamente robusto, com cada uma sendo sustentada por uma base sólida de liderança, governança e práticas internas:

-Descreva claramente a finalidade pretendida dos sistemas de IA e avalie seu impacto potencial geral;
-Implemente IA de maneira proativa para o benefício da sociedade e do meio ambiente;
-Incorpore princípios de diversidade e inclusão de forma proativa ao longo do ciclo de vida dos sistemas de IA;
-Aumente a transparência com a ajuda de ferramentas de tecnologia;
-Humanize a experiência de IA e garantir a supervisão humana dos sistemas de IA;
-Garanta a robustez tecnológica dos sistemas de IA;
-Proteja a privacidade individual das pessoas, capacitando-as e colocando-as no comando das interações de IA.

SEM COMENTÁRIOS

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

Sair da versão mobile