A Sophos divulgou dois relatórios sobre o uso da IA no crime cibernético. O primeiro, intitulado "The Dark Side of AI: Large-Scale Scam Campaigns Made Possible by Generative AI", projeta como, no futuro, os golpistas poderiam se basear em tecnologias como o ChatGPT para realizar ataques em grande escala, com poucas habilidades técnicas.
No entanto, um segundo relatório, chamado "Cybercriminals Can't Agree on GPTs", concluiu que, apesar do alto potencial da IA, em vez de adotar grandes modelos de linguagem (LLMs) como a própria solução da OpenAI, alguns cibercriminosos estão céticos e até preocupados com o uso dessa tecnologia nos ataques.
O lado sombrio da IA
Para desenvolver o estudo, a equipe multioperacional do Sophos X-Ops utilizou um modelo simples de e-commerce e ferramentas de LLM como o GPT-4, e conseguiu criar um site totalmente funcional com imagens, áudio e descrições de produtos gerados por IA, além de um login falso no Facebook e uma página falsa de checkout para roubar as credenciais e detalhes do cartão de crédito dos usuários. O site exigiu um conhecimento técnico mínimo para ser criado e operado e, usando a mesma ferramenta, a equipe da companhia foi capaz de criar centenas de páginas semelhantes em minutos, com apenas um clique.
"É natural – e esperado – que os criminosos recorram a novas tecnologias para automação de suas atividades. A criação de e-mails de spam foi uma etapa fundamental da tecnologia dos golpes, porque mudou a escala desse negócio. As novas IAs estão preparadas para fazer o mesmo e, se houver uma ferramenta que possa criar ameaças completas e automatizadas, as pessoas acabarão usando-a. Já vimos a integração de elementos gerados por IA em golpes clássicos, como textos ou fotografias produzidos para atrair vítimas", explica Ben Gelman, cientista sênior de dados da Sophos.
No entanto, ainda de acordo com o executivo, "parte do motivo pelo qual realizamos essa pesquisa foi para nos anteciparmos em relação aos criminosos. Ao criar um sistema para geração de sites fraudulentos em larga escala, que é mais avançado do que as ferramentas que os atacantes estão usando atualmente, temos uma oportunidade única de analisar e nos preparar para a ameaça antes dela se proliferar".
Cibercriminosos não concordam quando o assunto é GPTs
Para o levantamento sobre as tendências dos invasores em relação à IA, o Sophos X-Ops examinou quatro importantes fóruns da dark web voltados às discussões relacionadas aos LLMs. Embora o uso de IA pelos cibercriminosos pareça estar em estágios iniciais, na deep web eles estão discutindo seu potencial em relação à engenharia social. No passado, a Sophos já testemunhou o uso da IA em golpes de criptografia baseados em relacionamentos amorosos.
Além disso, a equipe descobriu que a maioria das postagens nos fóruns estavam relacionadas a contas comprometidas do ChatGPT para venda e "jailbreaks" – maneiras de contornar as proteções incorporadas aos LLMs – para que os cibercriminosos possam abusar deles para fins maliciosos. O Sophos X-Ops ainda encontrou dez derivados do ChatGPT que, segundo seus criadores, poderiam ser usados para lançar ataques cibernéticos e desenvolver malwares. No entanto, os responsáveis por ameaças tiveram diferentes reações a essas variações e a outros aplicativos maliciosos de LLMs, com muitos deles expressando preocupação de que os criadores das imitações do ChatGPT estivessem tentando enganá-los.
"Embora haja uma preocupação significativa com o abuso de IA e LLMs por parte dos cibercriminosos, desde o lançamento do ChatGPT, nossa equipe de pesquisa descobriu que os responsáveis pelas ameaças estão mais céticos do que entusiasmados. Em dois dos quatro fóruns da dark web que examinamos, encontramos apenas 100 postagens sobre IA. Para efeito de comparação, em relação a criptomoedas, encontramos mil postagens no mesmo período", conta o diretor de pesquisa do Sophos X-Ops, Christopher Budd.
"Vimos alguns atacantes tentando criar malwares ou ferramentas de ataque usando LLMs, mas os resultados foram incompletos e, muitas vezes, recebidos com ceticismo por outros cibercriminosos. Em um caso, um indivíduo responsável por uma ameaça, ansioso para mostrar o potencial do ChatGPT, revelou acidentalmente informações importantes sobre sua identidade real. Inclusive, encontramos várias 'notas de reflexão' sobre os possíveis efeitos negativos da IA na sociedade e as implicações éticas de seu uso. Em outras palavras, pelo menos por enquanto, parece que os cibercriminosos estão tendo os mesmos debates sobre LLMs do que nós", completa o executivo.