Estamos utilizando as Inteligências Artificiais corretamente?

0

Muitos acreditam que a inteligência artificial é a solução para variados problemas de tomada de decisão em larga escala. Não estão errados, mas é preciso refletir sobre quais decisões de negócio estão sendo deixadas nas "mãos" dos algoritmos.

Com o barateamento dos custos de coleta, processamento e utilização de dados, junto à disseminação do conceito de "data driven marketing", muitas empresas se voltaram para análise de dados para suas tomadas de decisões. Sejam elas marketing, vendas ou atendimento ao cliente, diversas ferramentas possibilitam a empresas o crescimento de seus negócios de forma sustentável – sem gastos desnecessários com recursos humanos e estrutura.

No entanto, há um planejamento e estruturação das operações das plataformas de marketing (vendas e atendimento inclusos) automatizado que depende da estratégia definida pelos gestores. Isso envolve, entre outras coisas, a confecção de um mapa de decisões e cenários de negócios que ajudam a orientar as ferramentas com suas respostas e ações.

A partir deste ponto, para solucionar determinados problemas, as plataformas começam a "operar sua mágica": dados históricos e padrões de comportamento são utilizados para entregar valor à empresa ao ajudar seu consumidor com a melhor solução ou oferta. Ou não exatamente?

Há dois exemplos onde o uso de inteligência artificial não está servindo ao seu propósito. Um deles é muito triste e feio, o outro trará consequências num futuro próximo.

Quando a Microsoft lançou o Tay, um chatbot impulsionado por inteligência artificial em 2016, a empresa nunca esperava que seu objetivo de engajar com os Millenials seria um caso de fracasso dos mais icônicos do uso desta tecnologia. Através das interações com o público, ao invés de seguir a promessa da empresa de que "quanto mais você interagir com o Tay, mais inteligente ele fica" fez-se valer a lei de Godwin (que quanto mais longa for a conversa, mais perto chegará de menções e comparações ao nazismo – trazidas pelos usuários). Esta versão do chatbot racista foi retirada do ar poucos dias depois. Uma nova tentativa em 2018 foi novamente fracassada.

Seriam estes chatbots reflexos da nossa sociedade e que, independentemente dos ajustes nos algoritmos, sempre seguirão este caminho? Ou conseguiremos desenvolver um chatbot que ao invés de aprender com os racistas e preconceituosos, consiga ensiná-los?

Parece que temos um caso de iniciativa bem sucedida aqui no Brasil com a BIA, a assistente virtual do Bradesco, que no início deste ano foi reconhecida até em um relatório da UNESCO como uma referência no combate a agressões de gênero, rebatendo ofensas dos usuários com respostas, educadamente.

O segundo caso não está documentado oficialmente, mas é fruto das minhas observações do mundo de mídia digital. Trabalhando há mais de 20 anos neste mercado, eu presenciei a incrível evolução das ferramentas de publicidade do Google e, anos mais tarde, do Facebook. Ambas plataformas dominam o percentual de investimentos de muitos anunciantes – daí, sua relevância para minha análise.

O Google conseguiu, de uma forma muito clara, entregar valor aos anunciantes que foram aos poucos aumentando seus investimentos, primeiro no Ads (antigo Adwords) até os novos formatos de hoje em dia. Mas o que o Google fez? Para poder ele próprio crescer independentemente do nível de conhecimento e expertise do mercado anunciante – agências e clientes – ele começou a inserir recursos de inteligência artificial com o intuito de facilitar o trabalho dos profissionais. Num cenário de falta de pessoas qualificadas para gerir campanhas de marketing digital, ainda hoje, a plataforma de anúncios possui otimizações automáticas que não requerem intervenção humana.

Por um lado isso é ótimo, pois permite que muitas empresas consigam operar campanhas de mídia online, especialmente campanhas de performance. Mas, por outro lado, isso está criando uma dependência na tecnologia de otimização do Google, que está formando uma geração de profissionais que não têm as respostas nem os por quês de as campanhas estarem performando bem ou mal. Isso é gravíssimo na minha opinião, pois toda a inteligência das otimizações está a encargo do Google (Facebook e outras plataformas funcionam de maneira parecida) e o analista de mídia está se tornando um mero operador de plataformas e não mais um profissional pago para pensar e gerar insights para o negócio.

Neste cenário que venho observando há algum tempo, o fato de a inteligência artificial destas megaempresas estar bloqueando campanhas legítimas – por infrações das políticas de uso das ferramentas – se torna um problema de segunda importância no longo prazo. Mas é de se estranhar que empresas corretas, honestas, seguidoras das regras de anúncios sejam penalizadas com campanhas e, às vezes, até contas inteiras sendo barradas, banidas e canceladas do Google e Facebook. Alguns exemplos recentes que presenciei incluem marcas de moda de praia terem anúncios barrados por mostrarem "nudez", marcas de binóculos e lunetas barradas por serem confundidas com armamentos e terrorismo (!) e marcas de produtos de churrasco canceladas por infringirem as políticas relacionadas ao comércio ilegal de órgãos humanos!?

Talvez o que falte sejam pequenos ajustes nos algoritmos, mas o fato é que a esta altura o mundo dos negócios, em especial o do marketing digital, já esperava que estes "desvios" estivessem resolvidos para poder continuar no seu objetivo de ajudar as empresas a crescerem, entregando valor aos clientes. A tecnologia deveria ser um meio e não um fim.

O fato é que para a inteligência artificial funcionar plenamente precisamos da inteligência humana em primeiro lugar, sempre. E claro, de uma boa dose de bom senso.

Eduardo Muniz, CEO e fundador da Simplie, além de pioneiro em mídia digital na América Latina e vencedor do prêmio Google Case of the Americas em 2010.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.