Segundo o jornal The Wall Street Journal, cibercriminosos usaram um software de inteligência artificial (IA) para imitar a voz do CEO de uma empresa de energia alemã. A fraude permitiu aos golpistas roubarem € 220 mil. Os invasores usaram a tecnologia para se passar pelo CEO da multinacional e enganar um de seus subordinados.
O falso executivo solicitou ao diretor-executivo da subsidiária do Reino Unido que efetuasse uma transferência para um fornecedor húngaro, no prazo de uma hora e a operação foi realizada. O CEO da sede britânica, afirmou ter reconhecido a voz do chefe pelo leve sotaque alemão.
Os golpistas voltaram a se comunicar com a vítima por mais duas vezes. Porém, na última transferência, que foi pedida com urgência, o diretor-executivo da sede britânica começou a suspeitar e se recusou a realizar o procedimento.
A ESET, provedora de soluções de detecção de ameaças, explica que é de se esperar que, em um futuro bem próximo, veremos um grande aumento no de machine learning pelo cibercrime. Segundo a empresa, produzir vozes falsas requer apenas algumas gravações e, à medida que o poder de processamento dos computadores aumenta, começaremos a ver que esses áudios se tornarão cada vez mais fáceis de criar.
A ESET lembra que o golpe utilizado mostra a evolução da engenharia social para ciberataques. Para evitar ser vítima de um golpe em que a voz de uma pessoa de confiança é imitada, a empresa destaca que ter consciência de que a fraude existe é o primeiro passo. Em seguida, o ideal é incluir medidas de verificação antes de fazer uma transferência de dinheiro.
O Facebook, juntamente com empresas como a Microsoft, e várias universidades nos Estados Unidos já notaram esta tendência crescente e expressaram a sua preocupação com o anúncio do lançamento do desafio Deepfake Detection Challenge (DFDC).
A iniciativa visa combater o crescente fenômeno das deepfakes (rostos falsos em vídeos), recompensando quem for capaz de desenvolver uma tecnologia que tenha a capacidade de detectar o uso de AI para gerar vídeos que foram alterados.