"Parecia real!" Fraude, IA E Deepfake já colhem êxito em golpes digitais

0

Diferente de aplicativos passageiros ou assuntos que floparam, a aplicação de Inteligência Artificial tem se sustentado e crescido nos mais variados setores da sociedade, aí incluídos os ambientes corporativos, acadêmicos, comerciais e, claro, também na prática criminal, fato que nos leva a contribuir com uma pequena série de artigos tratando do tema.

Neste primeiro ensaio, enfrentamos a aplicação da IA em práticas criminais, de baixa ou mais complexa aplicabilidade. Já são relativamente comuns casos de fraude em aplicativos como Instagram e Facebook, em que basicamente contas são hackeadas (por falta de cuidado dos usuários inclusive), e são utilizadas para oferta de vantagens ou mesmo produtos que sequer existem. 

Recentemente, porém, um caso chamou atenção pela dinâmica do atacante, fato que merece um destaque especial. 

Iniciado por um ataque de phishing, criminosos conseguiram lograram obter informações estratégicas acerca de um diretor financeiro de um banco. Com esses dados, foram colhidas imagens de vídeos públicos da vítima que, após, foram trabalhados em ferramentas para edição de deepfakes.

Agora o assunto fica mais interessante.

Tendo acesso às informações públicas e corporativas, os agentes utilizaram-se de projeções convincentes baseadas em deepfake e realizaram reuniões virtuais na companhia, viabilizando transferências bancárias gerando um desfalque de aproximadamente HK$200mi (equivalente a 126,5 milhões de reais) para o banco. A grandeza do prejuízo inegavelmente está ligada a qualidade dos materiais utilizados no plano, que geraram credibilidade ao atacante.

Com o avanço do uso de IA, a tendência é que controles em governança corporativa sejam cada vez mais importantes para evitar prejuízos como o narrado acima.

Diz-se isso pois, teoricamente, se o fraudador, mesmo valendo-se de deepfakes bem convincentes, tivesse de superar camadas de governança corporativa, se os pagamentos tivessem de ser processados com chave dupla de aprovação, ou mesmo mediante cadastros prévios de fornecedores com due dilligence própria, certamente o prejuízo seria menor ou sequer teria ocorrido.

Para a ótica de segurança corporativa, no melhor cenário, somando uma governança forte e dinâmica, a aplicação de ferramentas de segurança e treinamentos corporativos, o uso de "IA para o bem" pode tornar ainda mais altos os muros de contenção digital contra fraudes em companhias, autoridades públicas e privadas.

Portanto, governança, treinamentos e uso de boas práticas corporativas devem seguir sempre firmes, praticadas e atualizadas para evitar que o "parecia real" torne-se uma recorrente nos próximos anos.

Henrique Rocha, sócio no Peck Advogados.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.