O que é IA Responsável?

0
25

A tecnologia de inteligência artificial (IA) sustenta decisões que afetam profundamente a todos. IA responsável é um padrão para garantir que a IA seja segura, confiável e imparcial, garantindo que os modelos de IA e machine learning (ML) sejam robustos, explicáveis, éticos e eficientes. Seu objetivo é garantir que as organizações sejam capazes de compreender e fazer cumprir os modelos em conformidade com quatro princípios clássicos de governança corporativa: prestação de contas, justiça, transparência e, por último, responsabilidade.

A IA Robusta é uma metodologia de desenvolvimento bem definida que inclui uso adequado de dados históricos, de treinamento e de teste. Ela considera uma definição de desempenho sólida, com seleção cuidadosa da arquitetura do modelo e processos para teste de sua estabilidade, simulação e governança. É importante ressaltar que todos esses fatores devem ser respeitados por toda a organização de ciência de dados e aplicados como um padrão.

Já no caso da IA Explicável, as redes neurais podem encontrar relacionamentos não lineares complexos nos dados, levando a um forte poder preditivo, um componente-chave da IA. Porém, derivar uma interpretação compreensível para humanos costuma ser difícil, embora as equações matemáticas dos algoritmos de machine learning da "caixa preta" sejam geralmente diretas.

Uma técnica de machine learning chamada Características Latentes Interpretáveis ajuda a superar esse desafio, levando a arquiteturas de redes neurais explicáveis, cujo comportamento pode ser facilmente compreendido por analistas humanos. Ter um modelo explicável deve ser o objetivo principal das implantações de IA Responsável, seguida pelo poder preditivo.

Por sua vez, através da IA Ética, a tecnologia de machine learning descobre relações entre dados para se adequar a um objetivo específico. Frequentemente, ela formará proxies para entradas evitadas, e esses proxies podem mostrar parcialidade. Do ponto de vista de um cientista de dados, a IA Ética é alcançada tomando precauções para expor o que o modelo de machine learning subjacente aprendeu como recursos latentes e testar se eles podem imputar um viés.

Um processo de desenvolvimento rigoroso, juntamente com a visibilidade dos recursos latentes, ajuda a garantir que os modelos analíticos funcionem de forma ética. As características latentes devem ser continuamente verificadas quanto a tendências em ambientes em mudança.

E por fim, a IA Eficiente significa "construir certo da primeira vez". Os modelos devem ser projetados desde o início para serem executados em um ambiente operacional que vai mudar. Para alcançar IA Eficiente, os modelos devem ser construídos de acordo com um padrão de desenvolvimento de modelo para toda a empresa, com repositórios de código compartilhados, arquiteturas de modelo aprovadas, variáveis sancionadas e testes de polarização e padrões de estabilidade estabelecidos para modelos. Isso reduz drasticamente os erros no desenvolvimento do modelo que, em última análise, seriam expostos de outra forma na produção, reduzindo o valor de negócios previsto e impactando negativamente os clientes.

Quando as condições mudam, a IA Eficiente permite que os cientistas de dados determinem como o modelo responderá, a que será sensível, como determinar se ainda é imparcial e confiável ou se as estratégias de uso do modelo devem ser ajustadas. Ser eficiente é ter essas respostas codificadas por meio de um blockchain de governança, criado com base no modelo real, contendo todos os seus detalhes e disponível imediatamente no futuro conforme os ambientes de dados mudam.

A IA Responsável é um padrão essencial que as organizações devem alcançar porque, quase universalmente, os modelos de IA podem ter um tremendo impacto na qualidade de vida de alguém. O desempenho do modelo de inteligência artificial não deve ser o foco principal da pesquisa acadêmica de ciência de dados; esses modelos devem ser explicáveis primeiro, preditivos em segundo lugar e construídos dentro de um padrão de IA responsável. Do contrário, os modelos podem rapidamente se tornar muito complicados e não podem ser explicados.

Esses modelos geram ruído e as decisões tomadas com o uso deles podem causar um impacto significativo nas pessoas de inúmeras maneiras adversas. O mutuário será discriminado de forma invisível e terá um empréstimo negado? A doença de um paciente será diagnosticada incorretamente? Será um cidadão preso injustamente por um crime que não cometeu?

A barreira mais significativa para alcançar o padrão de IA Responsável em todas as organizações é que a maioria dos conselhos de administração e CEOs não têm a compreensão adequada da análise e seu impacto nos negócios, incluindo os danos que a IA pode causar.

E como o uso de IA cresce rapidamente em todos os setores, a regulamentação do governo é altamente provável, se não inevitável. Em vez de ver a regulamentação como punitiva ou inibidora da inovação, os conselhos de administração, executivos e cientistas de dados devem adotar a IA Responsável como um requisito benéfico e essencial.

Scott Zoldi, Chief Analytics Officer da FICO.

Deixe seu comentário