IA – O Bom, o Mau e o Feio

0

Há pouco mais de dois anos o mundo foi varrido pelo anúncio das novas tecnologias de inteligência artificial generativa e outras associadas, como o LLM (large language model). Não que a tecnologia tivesse sido criada naquele momento, mas foi quando ela atingiu um estágio disruptivo que praticamente nos leva a um caminho sem volta na transformação digital. 

Todo esse movimento traz embutida também uma grande dose de marketing, mas a disrupção chegou também na segurança da informação como era de se esperar. Logo o foco se virou para a IA, apesar de praticamente uma década ou mais no uso de machine learning e outras tecnologias de IA na área. Ainda em 2023 foi o tema principal das grandes conferências mundiais da área, incluindo o Black Hat e a DEFCON. O DARPA (Defense Advanced Research Projects Agency) ou, Agência de Projetos de Pesquisa Avançada em Defesa, na tradução livre, lançou em 2023 o AI Cyber Challenge (AIxCC), uma competição de dois anos focada na criação de novas ferramentas de segurança cibernética a partir do uso inovador de inteligência artificial. Os ganhadores serão anunciados na DEFCON, em agosto deste ano. 

No fim, a IA gerou uma grande esperança em segurança cibernética, mas nem tudo são flores. Podemos e até devemos esperar sempre pelo melhor, mas não podemos ignorar o que pode não ser tão bom e até piorar. Como em quase tudo na vida, há o bom, o mau e o feio.

O Bom

Um dos maiores desafios da gestão de segurança é o grande volume de dados que são coletados a cada segundo, correlacioná-los e extrair conclusões rápidas e ações objetivas, sejam proativas ou reativas. Há muito tempo trabalhamos como sistemas de correlação, mas que são estáticos ou dependentes de regras ou algoritmos de aprendizado limitados a determinadas condições, como idiomas. As novas tecnologias de IA mudaram completamente o cenário, elevando exponencialmente a capacidade de encontrar indícios de ataque ou mesmo prever ameaças antes que elas ocorram. Ou seja, a IA permite uma defesa proativa contra ameaças cibernéticas. Isso porque os modelos de IA podem prever vetores de ataque em potencial analisando padrões históricos de ameaças e dados em tempo real.

Correlacionar milhões de padrões, presentes e passados, para identificar uma anomalia no tráfego de rede, de correio eletrônico e mensagens, ou no comportamento de aplicações e usuários. Isso permite que ele identifique quando há um mínimo desvio do padrão normal, o que indica que uma conta foi comprometida ou que há uma ameaça interna. Ele também impede a perda acidental de dados ao procurar anomalias comportamentais para determinar se um e-mail foi endereçado incorretamente, por exemplo.

As novas tecnologias, quando bem treinadas, veem e aprendem com esses muitos milhões de eventos, mensagens, sessões de rede, transações, acessos etc. Toda essa capacidade permite que mesmo equipes de segurança pequenas possam alcançar resultados similares aos de grandes empresas. Agiliza em muito a resposta a emergências e o threat hunting, por identificar e priorizar os pontos onde a ação deve ser focada, além de permitir novos níveis de automação, já que esta depende do grau de confiabilidade da conclusão. Com baixo nível de confiabilidade, a automação pode afetar os negócios de uma empresa. Com a IA, isso fica mais garantido.

Outra área muito beneficiada é a de prevenção às fraudes, sobretudo as que chegam por correio eletrônico sem anexos ou URLs maliciosos. Via LLM, é possível interpretar, entender o conteúdo e identificar indícios.

O Mau

A Inteligência Artificial nunca foi de uso privativo do lado bom da equação. As mesmas tecnologias estão disponíveis para todos que têm recursos para tal – o que os maiores grupos de crime cibernético infelizmente tem bastante. 

No lado dos e-mails, ainda o vetor mais comum de ataque, a tecnologia permite a criação de e-mails de phishing altamente personalizados que parecem completamente legítimos e em qualquer idioma. Ao invadir uma caixa de correios de uma empresa, é possível usar a IA para aprender com o histórico de mensagens e enviar mensagens fraudulentas difíceis de serem percebidas como suspeitas. 

A tecnologia também fez o mercado de desenvolvimento de malware dar um salto qualitativo. Há quase vinte anos os desenvolvedores de malware começaram a investir em código polifórmico. Ao invés de enviar o executável com o código inteiro de ataque, começaram a invadir com um pequeno código para identificar o alvo, seus sistemas usados e versões, para então montar automaticamente o malware para um ataque personalizado. Todo o processo bastante avançado, era, no entanto, codificado de maneira estática. Agora os atacantes usam IA para criar malware dinâmico, ou adaptativo. O recurso de enviar um pequeno código primeiro permanece, por ser menor, mais leve e mais rápido para ser baixado e instalado, porém o código apoiado por IA consegue reconhecer e se adaptar, o que melhora muito sua capacidade de evasão. Além de se adaptar, a IA que os suporta aprende, aperfeiçoando técnicas e código ao longo do tempo.

Porém o pior de tudo é o avanço na criação de deepfakes, tanto de áudio como de vídeo. Ainda não está tão disseminado, mas já foi usado em alguns ataques. A vítima não apenas recebe uma mensagem de correio eletrônico ou colaboração fraudulenta, mas também uma gravação ou uma ligação por voz. O ponto máximo é uma ligação por vídeo, que poderia ser de um superior ou fornecedor. 

O mercado de crime também se sofisticou bastante e hoje o modelo de serviços, em que um grupo com muitos recursos alugam seus códigos e infraestrutura para grupos menores, está bastante consolidado. Logo, qualquer um pode contar com sistemas sofisticados para realizar seus ataques.

O Feio

Toda essa lista de benefícios depende de como cada sistema está sendo implementado ou treinado. A IA não é um ser global, mas sistemas que variam de acordo como foram implementados ou treinados. Há IAs mais inteligentes que outras, como aliás já percebemos em nosso dia a dia com diferentes sistemas de IA Generativa. A mesma pergunta gera diferentes respostas e algumas vezes erros crassos. 

Um sistema mal implementado, portanto, pode gerar fadiga de alerta ao emitir alertas excessivos, incluindo falsos positivos, o que sobrecarrega as equipes de segurança, desperdiça tempo e afeta a sua confiança no sistema em geral, podendo fazer com que ignorem alertas corretos. Os sistemas devem também prover informação suficiente para justificar suas conclusões. É difícil ganhar a confiança humana apenas dizendo "é um ataque". Há uma relação de confiança que precisa ser estabelecida para que aos poucos ações automáticas sejam habilitadas.

Um elemento que afeta diretamente os sistemas são as fontes de dados. A falta de dados pode acarretar em erros de interpretação e nem sempre é simples integrá-los com a infraestrutura existente, pois nem toda ela nas empresas é de última geração. Adicionar IA aos sistemas de monitoramento e resposta das empresas requer um projeto e não uma implementação, projetos estes com bom nível de escalabilidade (começar com resultados positivos e ir crescendo) e flexibilidade para contornar obstáculos.

Os sistemas de IA assim não são a panaceia que irá resolver todos os males como o marketing aponta. Talvez um dia seja, talvez nunca chegue lá, mas é necessário muito equilíbrio e planejamento em como utilizá-la, e nunca esquecer que o adversário também está pensando na mesma coisa.

Marcelo Bezerra, especialista em cibersegurança da Proofpoint.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.