Publicidade
Início Blogueria A maré crescente da IA: os desenvolvedores devem realmente ser nossos guardiões...

A maré crescente da IA: os desenvolvedores devem realmente ser nossos guardiões da ética?

0
Publicidade

O poder dos dados não pode ser subestimado. As decisões baseadas em dados continuam a formar a espinha dorsal de estratégias científicas, governamentais e de negócios bem-sucedidas, à medida que mais empresas e órgãos governamentais usam dados de novas maneiras para obter insights acionáveis. À medida que o volume mundial de dados continua a crescer, há uma clara demanda por tecnologias mais poderosas, como IA, que podem não apenas comunicar o que aconteceu ontem, mas também prever o que acontecerá amanhã.  

Usada corretamente, a IA tem um potencial transformador real – mas os riscos e oportunidades em torno da integração da IA também são significativos e ainda exigem consideração. No estágio de treinamento e programação, qualquer IA depende do fator humano e fica à mercê de seu criador e de suas próprias visões, experiências e filtros pessoais inerentes. Assim como um martelo não se levanta e martela um prego, a IA depende inteiramente de seu criador e usuário para executar. A IA tem o potencial de redefinir completamente a maneira como as empresas trabalham com dados – fornecendo modelos preditivos e prescritivos hiper relevantes e insights de negócios – ou cair em um ciclo de viés de autopropagação.  

Avaliando a necessidade principal: Baking em boas práticas de desenvolvimento  

Quando se trata de IA, as prioridades de desenvolvimento, como ética, compartilhamento, escalabilidade e segurança, muitas vezes podem ser consideradas periféricas aos principais objetivos de desenvolvimento de construir um produto funcional e colocá-lo no mercado rapidamente. Talvez um dos exemplos mais famosos disso seja o Botnet Mirai (malware), onde os dispositivos IoT sem senha resultaram na Internet de um país inteiro escurecendo por meio de ataques DDoS sustentados.  

Da mesma forma, uma pesquisa recente encomendada pela Alteryx sobre o estado da alfabetização de dados no Brasil descobriu que, embora os ingredientes brutos estejam prontos para impulsionar uma revolução de IA em todo o Brasil, 45% dos funcionários dizem que não têm as habilidades de alfabetização de dados necessárias para atender aos negócios atuais desafios. Essa falta de treinamento formal consistente e a subsequente falta de conhecimento padronizado lançam uma sombra sobre o futuro de vários projetos baseados em IA e aumentam os riscos de estruturas éticas inconsistentes que levam a vieses.  

Uma solução-chave para esse desafio é uma que estamos observando nos estágios iniciais – legislação para um uso mais considerado da tecnologia de IA e tornando a ética um requisito de produção do início ao fim. É um passo extremamente promissor ver recomendações recentes de mudanças legislativas no Parlamento da UE – particularmente uma decisão recente sobre a ética da IA. Nele, eles especificam que “Nenhum ser humano ou comunidade humana deve ser prejudicado ou subordinado … durante qualquer fase do ciclo de vida dos sistemas de IA. Ao longo do ciclo de vida dos sistemas de IA, a qualidade de vida dos seres humanos deve ser aprimorada”.  

De fato, o Reino Unido também é um dos primeiros países do mundo a legislar um padrão de transparência algorítmica para eliminar o preconceito da tomada de decisão algorítmica. Nela, eles exigem uma descrição da ferramenta – incluindo como e por que ela está sendo usada. O segundo requisito – promissor – concentra-se nos conjuntos de dados usados para treinar os modelos, o nível de supervisão humana e como a própria ferramenta funciona.  

É claro que a IA atualmente não funciona sozinha. Os seres humanos continuam sendo uma peça-chave do quebra-cabeça ao construir e treinar modelos de sucesso. Com isso em mente, vieses nos dados históricos usados para treinamento, por exemplo, podem se infiltrar em modelos que podem incluir decisões humanas e discriminar involuntariamente. Mesmo quando muitos campos diretamente relacionados a possíveis vieses são removidos (como gênero ou raça), a IA ainda pode replicar os desafios históricos por meio de informações inferidas. A Amazon, por exemplo, desativou seu próprio algoritmo de recrutamento de IA, pois os currículos herdados usados foram encontrados fortemente originados de homens, resultando em um viés contra as mulheres.  

Encontrando a humanidade em 1s e 0s  

Em novembro de 2018 havia 5 bilhões de consumidores que interagiram com dados, até 2025 esse número aumentará para 6 bilhões, ou 75% da população mundial. Os dados são a base sobre a qual saúde, riqueza e sucesso nos negócios podem ser entregues, e desenvolver ferramentas de IA que aumentem exclusivamente a qualidade de vida humana é um empreendimento significativo. Mas os dados precisam de contexto e inteligência humana quando aplicados à IA. Muitas vezes há variáveis em jogo que apenas os humanos podem interpretar e entender. Ser capaz de acessar, interpretar e fornecer insights a partir desses dados em escala é vital, e a IA é uma ferramenta essencial para conseguir isso… muitas vezes são preenchidos com um novo viés não intencional.  

O fator humano é simultaneamente a maior força e a maior fraqueza da inteligência artificial. Nós, como seres humanos, somos todos tendenciosos de alguma forma devido a circunstâncias individuais, educação ou reações emocionais a diferentes estímulos. É porque somos humanos que temos esses preconceitos. O elemento humano pode impedir a mudança real, adicionando mais preconceito humano não intencional de volta a uma mistura de tecnologia “limpa”. 

Para realmente desbloquear o valor da IA, precisamos ver uma abordagem combinada – uma em que o desenvolvimento ético da IA seja integrado simultaneamente a campanhas deliberadas e abrangentes de aprimoramento de funcionários. Os dados são o bilhete de ouro que desbloqueia os insights, mas os programas que promovem a qualificação para permitir que todos “falem dados” fornecerão as pessoas que fornecerão esses insights – pessoas com conhecimento e experiência para avaliar dados tendenciosos e fornecer soluções alternativas.  

Um negócio desenvolvido com base em múltiplos e diversos pontos de vista está muito mais preparado para prosperar no ambiente hiper global de hoje. Em última análise, as empresas precisam desenvolver uma cultura que não apenas permita as diferenças únicas entre as pessoas, mas as celebre e integre essa diversidade de pensamento em uma estratégia forte para garantir que dados tendenciosos não afetem o valor comercial oferecido pela integração da IA. 

Marta Clark, vice-presidente Latam da Alteryx.  

IA FORUM  

TI INSIDE promove a 1a edição do IA Forum, dias 26 e 27 de julho, no periodo da manhã, no formato digital. As inscrições são gratuitas e podem ser feitas no site do evento: www.iaforum.com.br 

SEM COMENTÁRIOS

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Sair da versão mobile