O Norton Labs, time global de pesquisa da Norton, anuncia seu Relatório Pulse de Cibersegurança do Usuário para o trimestre, detalhando como cibercriminosos podem usar inteligência artificial para criar ameaças realistas e sofisticadas. Esse relatório inclui uma análise de como grandes modelos de linguagem podem ajudar nas táticas cibercriminosas.
O ChatGPT dominou a atenção da internet, com milhões de pessoas usando a tecnologia para escrever poemas, elaborar pequenas histórias, responder a perguntas e até para pedir conselhos. Enquanto isso, cibercriminosos podem usá-la para gerar ameaças ao se valer de sua impressionante habilidade de gerar textos que se assemelham a produções humanas e que se adaptam a diferentes linguagens e públicos.
Cibercrimonosos agora podem criar ações de phishing por e-mail ou redes sociais, de forma rápida e fácil e ainda mais convincentes, tornando mais difícil distinguir o que é uma ameaça. Outro ponto importante é que o ChatGPT também é capaz de gerar códigos. Ou seja: facilita a vida dos desenvolvedores com sua capacidade de escrever e traduzir códigos-fonte, mas também pode facilitar a vida dos cibercriminosos ao tornar os golpes mais rápidos de criar e mais difíceis de detectar.
"Estou muito entusiasmado com grandes modelos de linguagem como o ChatGPT. No entanto, também me preocupo com as formas com as quais os cibercriminosos podem abusar dele, pois sabemos que se adaptam rapidamente às mais avançadas tecnologias e estamos vendo que o ChatGPT pode ser usado para a criação fácil e rápida de ameaças convincentes", disse Kevin Roundy, diretor técnico sênior da Norton. "Está ficando mais difícil que nunca para as pessoas identificarem golpes por conta própria. E é por isso que soluções de cibersegurança que observam mais aspectos de nossas vidas digitais – dos nossos aparelhos de celular até nossa identidade on-line, bem como o bem-estar das pessoas a nossa volta – são necessárias para nos mantermos em segurança nesse mundo em constante evolução".
Além do uso do ChatGPT para campanhas mais eficientes de phishing, especialistas do Norton Labs advertem que maus usuários também podem usá-lo para criar chatbots deepfake. Esses chatbots podem imitar humanos ou fontes legítimas, como um banco ou uma entidade governamental, para manipular vítimas a passar dados pessoais, usadas para obter acesso a informações confidenciais, roubar dinheiro ou cometer fraude.
Para manter a segurança frente a essas novas ameaças, especialistas da Norton recomendam:
– Evitar chatbots que não aparecem no site ou app da empresa e ter muita cautela ao fornecer dados pessoais a alguém com quem você está conversando on-line.
– Pensar antes de clicar em links provenientes de ligações, e-mails ou mensagens não solicitados.
– Atualizar suas soluções de segurança e garantir que elas tenham um pacote completo de camadas de segurança, indo além da detecção de malware, como sensor de comportamento e bloqueio.