Tecnologias baseadas em inteligência artificial (IA), como o tão falado ChatGPT, estão em alta no debate público pois empresas veem nessas inovações uma oportunidade de desenvolver soluções mais assertivas, ágeis e práticas. Esse movimento do mercado inclui a automatização de conteúdos criativos, como redações, imagens e vídeos, uma capacidade até pouco tempo atrás considerada exclusiva dos seres humanos.
O funcionamento dessas soluções, chamadas de IA generativa, pode ser resumido assim: a máquina é treinada com um grande volume de dados para aprender a gerar conteúdos similares aos que foram apresentados. Para que esse processo ocorra, a máquina precisa geralmente ter acesso a informações sensíveis dos usuários e empresas. Quanto mais referências a máquina receber, melhor será seu aprendizado e resultado final.
Apesar do potencial benéfico dessa tecnologia para o avanço social e econômico, tenho visto muitos especialistas alertando que ela pode trazer sérios riscos à privacidade das informações. Um relatório recente publicado pela Universidade de Stanford, nos Estados Unidos, ressalta como sistemas baseados em IA, especialmente os desenvolvidos com a metodologia machine learning, como o ChatGPT, estão expostos a ameaças de cibersegurança.
Um exemplo recente sobre como o uso de IA pode levar a violações de privacidade foi o caso de uma empresa americana que utilizou ferramentas desse tipo para produzir um texto informativo interno sobre uma operação de M&A. Utilizando a mesma ferramenta de IA, usuários de fora dessa empresa fizeram perguntas direcionadas à ferramenta para obter respostas que revelaram dados confidenciais que foram salvos durante tal operação de M&A.
A falsificação e a manipulação de dados são outros desafios que surgem neste cenário, porque, com o uso de soluções de IA generativa, é possível criar conteúdos falsos que parecem autênticos, mas que, na verdade, foram criados por um algoritmo. Para empresas, isso pode ser extremamente prejudicial, já que informações falsas ou manipuladas podem levar a decisões equivocadas, gerar prejuízos financeiros consideráveis, prejudicar a reputação da empresa e afetar negativamente a confiança dos clientes, além de possíveis sanções regulatórias por parte do poder público.
Neste cenário, é fundamental que as organizações tomem medidas para proteger ainda mais as informações dos seus clientes e usuários. Isso inclui o uso de criptografia, o acesso restrito aos dados por parte de funcionários autorizados e a implementação de políticas efetivas, que levem em consideração também a legislação regulatória, entre as quais, está a Lei Geral de Proteção de Dados (LGPD).
É fundamental que haja transparência e consentimento dos usuários em relação ao uso de seus dados para a melhoria de modelos de IA, sempre com o devido cuidado na divulgação de informações sensíveis ou confidenciais por meio de conteúdos gerados por estes modelos.
Sem dúvida, as inovações em inteligência artificial podem trazer avanços significativos em eficiência na produção de conteúdo, mas é de suma importância uma adequada avaliação dos riscos existentes ao compartilhar informações confidenciais.
Wesley Marinho, líder de Segurança da Informação da Arquivei.