No último ano, a Inteligência Artificial Generativa, como o ChatGPT, tem ganhado destaque. Enquanto muitas empresas continuam explorando suas capacidades para proteger suas equipes, os cibercriminosos estão aproveitando seu potencial para explorar vulnerabilidades e criar novos vetores de ataque.
Um ano após o lançamento do ChatGPT, é evidente que muitos serviços de cibercrime já o utilizam regularmente, especialmente na área de falsificação de identidade e engenharia social, burlando as restrições para aumentar a eficácia de seus ataques.
Os pesquisadores da Check Point Software examinaram quatro exemplos diferentes de como a IA generativa foi usada para potencializar ataques cibernéticos:
1.Plataforma Black-Hat impulsionada por IA para falsificar redes sociais
As contas falsas em redes sociais representam uma ameaça significativa à cibersegurança devido ao seu potencial para realizar atividades maliciosas, como a falsificação de marcas ou a disseminação de notícias falsas, entre outras.
Recentemente, foi identificada uma nova plataforma que utiliza IA para gerar conteúdo em redes sociais, Instagram, Facebook, Twitter e Telegram, e automatizar quase totalmente a manutenção de contas falsas nas redes sociais. A plataforma é capaz de criar conteúdo simultânea e diariamente para mais de 200 contas. Além disso, promovem os perfis e proporcionam uma sensação de autenticidade ao se juntarem a grupos relevantes, gostarem de contas semelhantes, entre outros, para obter mais seguidores e usar esse tráfego de contas para seus propósitos maliciosos.
Um exemplo levantado pelos pesquisadores da Check Point Software aponta que um ator de ameaça mostra conteúdo gerado para modelos femininas. Em outro caso, ele gerou uma série de perfis falsos que imitam traders financeiros masculinos bem-sucedidos.
2.Serviço de deepfakes impulsionado por IA
Os pesquisadores identificaram um novo serviço de falsificação que se concentra em fornecer serviços de deepfake de três formas diferentes:
. Sincronização labial.
. Sincronização labial e substituição de rosto.
. Dublagem de voz.
O uso desses serviços geralmente é empregado para criar perfis falsos em redes sociais e assim promover agendas políticas ou produtos, ou ainda para falsificar identidades de personalidades relevantes a fim de causar danos graves à sua reputação.
3.Ferramentas e serviços de spam impulsionados por IA
Uma das formas mais comuns de uso da IA é na geração de spam com diversos objetivos, como phishing, obtenção de credenciais, distribuição de malware, golpes, entre outros. Os cibercriminosos podem criar textos únicos para cada e-mail, o que lhes permite contornar os controles antispam e antiphishing dos serviços de e-mail, alcançando uma taxa de sucesso de 70%.
4.Serviços de verificação KYC
Os serviços de KYC (Know Your Customer – Conheça Seu Cliente) estão se tornando cada vez mais comuns em empresas financeiras, onde coletam informações detalhadas de seus clientes para garantir a segurança de suas transações, mitigar riscos e cumprir regulamentos. Também é usado para que os clientes possam recuperar o acesso às suas contas, como uma forma de redefinir a senha. Para acessar esses sistemas de forma ilícita, foram criados serviços clandestinos que geram documentação falsa com a ajuda da IA e com os quais obtêm resultados muito fiéis rapidamente.
O rápido desenvolvimento das tecnologias de IA traz novas oportunidades e desafios cada vez mais complexos à cibersegurança. Enquanto a IA possibilita aplicações benéficas como a detecção de malware e a segurança de sistemas, também permite que os cibercriminosos ampliem suas operações.
Agora, os cibercriminosos podem aproveitar o poder da IA para criar esquemas de engenharia social mais sofisticados, encontrar vulnerabilidades de rede mais rapidamente, produzir mídia sintética para intimidação ou roubo de identidade, além de automatizar tentativas de phishing e desenvolvimento de malware.