Nos últimos anos, a Inteligência Artificial (IA) tornou-se cada vez mais relevante no Brasil, tanto na esfera legislativa quanto na pesquisa e desenvolvimento. Diversas iniciativas e regulamentações estão sendo introduzidas para organizar e promover a IA ética no país. As principais preocupações com a adoção da IA pelas empresas incluem o uso de dados, a confiabilidade das fontes, o risco de viés e o impacto na força de trabalho. Aplicar princípios éticos é crucial para a transformação das empresas, enfatizando a centralidade humana, a inclusividade, a transparência e a responsabilidade. Esses princípios garantem que a IA beneficie os usuários de maneira justa e abrangente.
Humanidade no centro
A pesquisa recente "Relatório Anual do Índice de Tendências de Trabalho 2024", da Microsoft com o LinkedIn, mostra que, segundo 69% dos participantes, a IA pode acelerar seu caminho para a promoção, enquanto 79% acreditam que as habilidades em IA expandirão suas perspectivas de emprego. Além disso, no Brasil, 65% dos líderes preferem contratar um candidato menos experiente com habilidades em IA a um candidato mais experiente que não domine a ferramenta.
Do lado do consumidor, o "Relatório Voz do Consumidor 2024: o desafio da fidelização às marcas" da ServiceNow descobriu que, no Brasil, para aqueles que não se envolveriam com uma marca que usa IA ou IA generativa, não querer que a inteligência artificial substitua empregos humanos é a principal razão (29%), enquanto os consumidores dispostos destacam melhores experiências e personalização como fatores motivadores.
Ao colocar os humanos no centro do desenvolvimento da inteligência artificial, as empresas podem implementar processos de "human-in-the-loop", colocando a IA para trabalhar para as pessoas e garantindo que os usuários possam avaliar e ajustar sugestões para atender às suas necessidades específicas. Implementar pesquisas regulares de experiência do usuário ao longo do desenvolvimento da IA garante que as aplicações melhorem as experiências de trabalho, protegendo os empregos enquanto os aprimoram e promovendo uma experiência mais personalizada e significativa para os usuários.
Inclusividade
Integrar a inclusividade no desenvolvimento da IA desde o início é essencial, pois garante justiça, precisão e representatividade. Isso é ainda mais evidente no uso de modelos de IA específicos de domínio. Um fator chave para alcançar a inclusividade na IA é o uso de conjuntos de dados diversos. Ao incorporar uma ampla gama de dados, podemos reduzir o viés e melhorar a precisão dos sistemas de IA. Essa abordagem garante que os modelos reflitam as diversas experiências e necessidades de diferentes usuários, empresas e países, levando a resultados mais confiáveis. A avaliação constante dos conjuntos de dados ajuda a manter a inclusividade e evitar o viés. Uma estratégia eficaz é treinar modelos menores e específicos de domínio, em vez de depender de modelos de propósito geral. Isso minimiza erros ou "alucinações".
Transparência
Documentação clara do produto promove a confiança na IA. A transparência envolve detalhar as características e limitações da ferramenta, atualizar os cartões de modelo e marcar o conteúdo gerado por IA. Essa clareza é vital em regiões como o Brasil, onde a desconfiança na tecnologia é alta. Permitir que os usuários revisem e aprovem os resultados da inteligência artificial ou desativem recursos de IA generativa também pode contribuir para a confiabilidade e o controle do usuário.
Responsabilidade
Estabelecer a responsabilidade na governança da IA é essencial. As empresas devem criar comitês de ética internos e conselhos de governança para supervisionar o uso da IA integrando considerações éticas. Essa abordagem garante o uso responsável da IA e mantém a confiança. A responsabilidade deve estar no coração de cada iniciativa de IA. As empresas devem levar suas responsabilidades a sério. Essa postura proativa é fundamental para manter a confiança e garantir que as tecnologias de inteligência artificial sejam usadas de maneira ética e responsável. As empresas brasileiras enfrentam desafios específicos, como disparidades socioeconômicas e a necessidade de inclusão digital. No entanto, ao adotar princípios éticos na IA, como ser cuidadoso e estratégico sobre quando, onde e como usar a IA, é possível superar essas barreiras e promover uma transformação digital que beneficie a todos e garanta o sucesso a longo prazo das empresas.
Katia Ortiz, Vice-Presidente da América Latina do Sul para ServiceNow.