O ano de 2024, considerado um "super ano de eleições", em que aproximadamente metade da população mundial vota em nível nacional ou regional, reacende as discussões sobre o uso de deepfakes para difamação e disseminação de informações falsas. Embora não seja um fenômeno novo, afinal o primeiro caso do uso desse tipo de manipulação tenha sido registrado em 2017, a evolução e popularização da Inteligência Artificial (IA) inaugurou um novo capítulo para essa tecnologia. Além de influenciar a opinião pública em pleitos, o recurso está sendo utilizado para fraudes de identidade que prejudicam empresas de diversos setores.
Segundo o Identity Fraud Report 2023, estudo da Sumsub, entre 2022 e 2023 o número de deepfakes aumentou em 10 vezes no mundo, o que corresponde a um crescimento de 828% na incidência no Brasil. De acordo com o levantamento, o nosso país lidera o ranking na América Latina, respondendo por quase 50% dos casos registrados na região.
Atualmente, há dois tipos de ataques deepfake mais comuns no Brasil: o primeiro consiste na criação de documentos totalmente falsos, em que os criminosos usam fotos reais ou criam novas faces e as combinam com dados verdadeiros encontrados na internet; o segundo é a manipulação de selfies a partir de imagens e vídeos disponíveis na internet, combinando-os com documentos verdadeiros. As organizações podem ser alvo de fraudes em diversos momentos da jornada digital, como o cadastro de novos clientes, troca de dispositivos ou de senhas, solicitações de novos produtos e crédito, entre outras.
Apesar de 75% dos bancos que adotam a IA utilizarem a biometria facial, segundo a Pesquisa Febraban de Tecnologia Bancária 2024, realizada pela Deloitte, somente esse mecanismo não é suficiente para garantir a segurança. O reconhecimento biométrico considera características específicas, como luminosidade, movimentação dos lábios e montagem do cenário. No entanto, apenas essa análise não identifica deepfakes, por isso é necessária uma abordagem multicamadas.
Para inibir a inclusão de deepfakes, é possível controlar o mecanismo de captura de selfies em tempo real. Além disso, existe a possibilidade de garantir que os dispositivos utilizados no processo de validação sejam confiáveis, por meio de "device fingerprint" e configurações de fluxos, o que impede tentativas de fraudes, como inserções de imagens.
Na etapa de reconhecimento biométrico, há recursos adicionais que melhoram a avaliação. Na idwall, utilizamos o Liveness Ativo, que demanda que o usuário interaja, solicitando certas ações no momento da captura; e o Liveness Passivo, que examina particularidades sutis durante a captura e complementa a detecção. Essa combinação torna a ferramenta mais eficiente contra deepfakes.
Outra atitude fundamental é o acompanhamento das tendências técnicas utilizadas em deepfakes e fraudes em geral. Os estudos e testes contínuos devem incluir especialistas em Data Science, Machine Learning e IA Generativa.
De forma geral, para evitar deepfakes, é aconselhável limitar o acesso das redes sociais, que podem fornecer matérias-primas para golpistas, bem como evitar o compartilhamento de conteúdos suspeitos, prevenindo a propagação de informações falsas. As empresas, por sua vez, devem investir em ferramentas de detecção avançadas, implementar processos de verificação robustos em plataformas digitais e educar os consumidores a respeito dos riscos.
Danilo Barsotti, CTO da idwall.