Difusão da Inteligência Artificial amplia a ameaça das deepfakes para pessoas e empresas

0

O ano de 2024, considerado um "super ano de eleições", em que aproximadamente metade da população mundial vota em nível nacional ou regional, reacende as discussões sobre o uso de deepfakes para difamação e disseminação de informações falsas. Embora não seja um fenômeno novo, afinal o primeiro caso do uso desse tipo de manipulação tenha  sido registrado em 2017, a evolução e popularização da Inteligência Artificial (IA) inaugurou um novo capítulo para essa tecnologia. Além de influenciar a opinião pública em pleitos, o recurso está sendo utilizado para fraudes de identidade que prejudicam empresas de diversos setores.

Segundo o Identity Fraud Report 2023, estudo da Sumsub,  entre 2022 e 2023 o número de deepfakes aumentou em 10 vezes no mundo, o que corresponde a um crescimento de 828% na incidência no Brasil. De acordo com o levantamento, o nosso país lidera o ranking na América Latina, respondendo por quase 50% dos casos registrados na região.

Atualmente, há dois tipos de ataques deepfake mais comuns no Brasil: o primeiro consiste na criação de documentos totalmente falsos, em que os criminosos usam fotos reais ou criam novas faces e as combinam com dados verdadeiros encontrados na internet; o segundo é a manipulação de selfies a partir de imagens e vídeos disponíveis na internet, combinando-os com documentos verdadeiros. As organizações podem ser alvo de fraudes em diversos momentos da jornada digital, como o cadastro de novos clientes, troca de dispositivos ou de senhas, solicitações de novos produtos e crédito, entre outras.

Apesar de 75% dos bancos que adotam a IA utilizarem a biometria facial, segundo a Pesquisa Febraban de Tecnologia Bancária 2024, realizada pela Deloitte, somente esse mecanismo não é suficiente para  garantir a segurança. O reconhecimento biométrico considera características específicas, como luminosidade, movimentação dos lábios e montagem do cenário. No entanto, apenas essa análise não identifica deepfakes, por isso é necessária uma abordagem multicamadas.

Para inibir a inclusão de deepfakes, é possível controlar o mecanismo de captura de selfies em tempo real. Além disso, existe a possibilidade de garantir que os dispositivos utilizados no processo de validação sejam confiáveis, por meio de "device fingerprint" e configurações de fluxos, o que impede tentativas de fraudes, como inserções de imagens.

Na etapa de reconhecimento biométrico, há recursos adicionais que melhoram a avaliação. Na idwall, utilizamos o Liveness Ativo, que demanda que o usuário interaja, solicitando certas ações no momento da captura; e o Liveness Passivo, que examina particularidades sutis durante a captura e complementa a detecção. Essa combinação torna a ferramenta mais eficiente contra deepfakes.

Outra atitude fundamental é o acompanhamento das tendências técnicas utilizadas em deepfakes e fraudes em geral. Os estudos e testes contínuos devem incluir especialistas em Data Science, Machine Learning e IA Generativa.

De forma geral, para evitar deepfakes, é aconselhável limitar o acesso das redes sociais, que podem fornecer matérias-primas para golpistas, bem como evitar o compartilhamento de conteúdos suspeitos, prevenindo a propagação de informações falsas. As empresas, por sua vez, devem investir em ferramentas de detecção avançadas, implementar processos de verificação robustos em plataformas digitais e educar os consumidores a respeito dos riscos.

Danilo Barsotti, CTO da idwall.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.