A iProov, fornecedora de soluções de identidade biométrica baseadas em ciência, lançou o Relatório de Inteligência de Ameaças iProov 2024: O Impacto da IA Gerativa na Verificação Remota de Identidade.
Elaborado a partir de dados e análises de especialistas do Security Operations Center (iSOC) da iProov, o documento examina o cenário de ameaças de verificação remota de identidade, fornece insights em primeira mão sobre a anatomia de um ataque de injeção digital e expõe as metodologias utilizadas pelos agentes mal-intencionados, as tendências de ameaças e seus impactos.
As principais ameaças apontadas pelo relatório da iProov são:
• Aumento de 704% na troca de rosto, uma forma de deepfake, ataques de H1 a H2 2023
• Aumento de 672% no uso de mídia deepfake implantada junto com a falsificação de metadados, entre o 1º e o 2º semestres de 2023.
• Aumento de 353%, nesse período, no número de agentes de ameaças cibernéticas que utilizam emuladores – forma de ataque de injeção de vídeo.
• Aumento de 255%, no período, nos ataques de injeção digital contra plataformas web móveis.
• Constatação de que quase a metade (47%) dos grupos de troca de informações identificados pelos analistas da iProov foram criados em 2023.
O relatório da iProov mostra que os ecossistemas digitais continuam a crescer e a se multiplicar em níveis recordes à medida que organizações e governos buscam fornecer acesso e serviços remotos para atender à demanda de consumidores e da força de trabalho.
No entanto, o efeito colateral não intencional desse crescimento é uma superfície de ataque em constante expansão que, juntamente com a disponibilidade de ferramentas de Inteligência Artificial (IA) generativa facilmente acessíveis e criminosamente armadas, aumentou a necessidade de uma verificação de identidade remota altamente segura.
O novo relatório de ameaças da iProov revela como os agentes mal-intencionados estão usando ferramentas avançadas de IA, como trocas de rosto convincentes em conjunto com emuladores e outras metodologias de manipulação de metadados (ferramentas tradicionais de ataque cibernético), para criar vetores de ameaças novos e amplamente não mapeados.
As trocas de rosto criadas usando ferramentas de IA generativas representam um enorme desafio para os sistemas de verificação de identidade devido à sua capacidade de manipular os principais traços da imagem ou dos vídeos. Uma troca de rosto pode ser facilmente gerada por um software de manipulação de rosto, e essa imagem manipulada ou sintética é utilizada para uma câmera virtual. Felizmente, ao contrário do olho humano, sistemas biométricos avançados podem se tornar resilientes a esse tipo de ataque.
Ainda assim, em 2023, atores maliciosos exploraram uma brecha em alguns sistemas usando ferramentas cibernéticas, como emuladores, para ocultar a existência de câmeras virtuais, dificultando a detecção por provedores de soluções biométricas. Isso criou a tempestade perfeita, com invasores fazendo da troca de rosto e dos emuladores as suas ferramentas preferidas para perpetrar fraudes de identidade.
"A IA generativa forneceu um enorme impulso aos níveis de produtividade dos agentes de ameaças. São ferramentas de custo relativamente baixo, de fácil acesso e que podem ser usadas para criar mídias sintéticas altamente convincentes, como trocas de rosto ou outras formas de deepfake, capazes de enganar facilmente o olho humano, além do uso de soluções biométricas menos avançadas", diz Andrew Newell, diretor científico da iProov. "Isso só serve para aumentar a necessidade de verificação de identidade remota altamente segura."
Segundo Newell, embora os dados do relatório destaquem que as trocas faciais são atualmente a deepfake preferida dos criminosos, não é possível afirmar o que vem a seguir. "A única maneira de ficar um passo à frente é monitorar e identificar constantemente esses ataques, a sua frequência, quem eles estão visando e os métodos utilizados, a fim de se formar um conjunto de hipóteses sobre o que os motiva."
A evolução dos ataques de injeção digital
O uso de emuladores e spoofing de metadados para lançar ataques de injeção digital em diferentes plataformas foi observado pela primeira vez pelo iSOC em 2022, mas seguiu dominante em 2023, tendo crescido 353% somente no segundo semestre do ano passado.
Um emulador é uma ferramenta de software usada para imitar o dispositivo de um usuário, como um telefone celular, por exemplo. Esses ataques estão evoluindo rapidamente e representam novas ameaças significativas para as plataformas móveis: os ataques de injeção contra a web móvel aumentaram 255% entre julho e dezembro de 2023
Avanços em colaboração e mais sofisticados
Ao longo dos últimos dois anos, os níveis de ataques indiscriminados variaram de 50 mil a 100 mil vezes por mês. Houve também um aumento considerável no número de atores e uma melhora na sofisticação das ferramentas utilizadas.
Observou-se também um crescimento significativo no número de grupos envolvidos na troca de informações relacionadas a ataques contra sistemas biométricos e remotos de identificação humana ou "videoidentificação", evidenciando a abordagem colaborativa que vem sendo adotada pelos atores de ameaças. Dos grupos identificados pelos analistas do iProov, quase metade (47%) foi criada no ano passado.
Novas tendências
Dois tipos de ataques principais foram observados pelo iSOC: os de apresentação e aqueles de injeção digital. Entre as novas tendências descobertas em 2023 estão:
• O aumento significativo de uso de ferramentas de IA para imagens tornou muito mais fácil e rápido lançar um ataque, e isto é apenas o começo.
• O crescimento de 672%, no segundo semestre, no uso de mídias deepfake, como trocas de rostos implantadas junto com ferramentas de falsificação de metadados. Embora os ataques de apresentação e injeção digital possam ter diferentes níveis de impacto, eles representam uma ameaça significativa quando combinados com ferramentas tradicionais de ataque cibernético, como a manipulação de metadados.
O relatório da iProov também incluiu uma nova seção que descreve estudos de caso sobre personas prolíficas de atores de ameaças, cujas identidades foram anonimizadas. Esses estudos de caso avaliam a sofisticação das metodologias, os esforços e a frequência dos ataques de cada ator. Tal análise fornece uma inteligência inestimável e apoia a iProov na melhoria contínua da segurança de sua plataforma biométrica, ajudando a minimizar o risco, para as organizações, da exploração de transações de verificação de identidade remota, atuais e futuras.