A inteligência artificial generativa (GenAI) emergiu no ano passado como uma das maiores tendências tecnológicas da história, atraindo uma atenção significativa de todo o mercado. O rápido desenvolvimento de grandes modelos de linguagem (LLMs) e ferramentas como o ChatGPT levaram as organizações a explorar seus potenciais benefícios. Embora estejamos quase atingindo o pico das "expectativas inflacionadas" em torno do tema, é crucial que os líderes de segurança reconheçam que a IA oferece uma gama muito mais ampla de aplicações.
Muitos fornecedores de segurança incorporam a inteligência artificial especialmente no aprendizado de máquina (ML) há anos, com o objetivo de melhorar a eficácia de seu conjunto de soluções e aumentar seus recursos. A IA tem um imenso potencial para reforçar a segurança organizacional e capacitar os defensores para se manterem à frente das ameaças. No entanto, é essencial reconhecer que a IA tem casos de utilização muito mais amplos. Por exemplo, os recursos orientados por IA/ML são tão bons quanto os dados e processos usados para treinar os modelos, incluindo tamanho e qualidade dos conjuntos de dados, monitoramento de mudanças na distribuição de dados, etc. A complexidade da tecnologia cria obstáculos e limitações adicionais. E apesar da capacidade da IA de superar os humanos em algumas tarefas complexas, nem sempre é a abordagem mais eficaz.
Em essência, a IA não é uma única solução para todos os problemas de segurança. À medida que você busca avançar em suas defesas, considere a amplitude dos casos de uso de IA e faça perguntas detalhadas aos fornecedores de segurança para entender quais casos de uso e soluções são mais adequados para sua organização.
A promessa e as capacidades das defesas alimentadas por IA
Os sistemas de IA são especialmente adeptos da identificação de padrões em grandes quantidades de dados e da realização de previsões com base nesses dados. Tomemos os golpes de desvio de folha de pagamento como exemplo da vantagem da IA. Esses tipos de ataques de comprometimento de e-mail comercial (BEC) têm aumentado em frequência e evitam consistentemente a detecção de segurança de e-mail. As avaliações de ameaças da Proofpoint em outubro do ano passado, por exemplo, descobriram que mais de 400 ameaças de desvio de folha de pagamento passaram por 12 ferramentas de segurança de e-mail.
Os ataques são difíceis de detectar porque, normalmente, não possuem links ou anexos. Além disso, várias soluções de segurança de e-mail utilizadas por empresas estão baseadas em API e verificam as ameaças após a entrega do email ao usuário, o que exige um esforço muito demorado das equipes de TI ou de segurança para preencher a ferramenta com dados. Como essa abordagem não é bem dimensionada, muitas equipes optam por implementar esses controles apenas para um grupo seleto, como executivos seniores. Os atores da ameaça, no entanto, têm como alvo uma categoria muito mais ampla de pessoas dentro da organização quando realizam ataques.
É aí que as ferramentas alimentadas por IA/ML, incluindo IA generativa (GenAI), oferecem uma vantagem tremenda. A detecção de ameaças orientada por IA/ML, juntamente com a detecção de pré-entrega baseada em LLM, pode ser usada para interpretar o tom contextual e a intenção de um e-mail. Essa abordagem de pré-entrega protege sua organização, bloqueando e-mails fraudulentos e maliciosos antes que cheguem ao seu pessoal, minimizando bastante a exposição a ameaças como o BEC.
Nem todas as ferramentas alimentadas por IA são iguais
Para funcionar bem, as soluções de IA e ML precisam de grandes quantidades de dados de alta qualidade porque os modelos aprendem com padrões e exemplos, e não com regras. A Proofpoint, por exemplo, treina seus modelos com milhões de e-mails diários de um ecossistema mundial de inteligência de ameaças. Isso garante uma detecção de maior fidelidade e dá às equipes de segurança ou de TI a confiança na eficácia de sua segurança.
Portanto, antes de adotar novas soluções que dependem de IA e ML, faça perguntas aos fornecedores analisados, como:
Onde eles obtêm seus dados para algoritmos de treinamento? A obtenção de dados para aplicações de IA de uso geral é fácil, mas os dados de inteligência sobre ameaças não são tão abundantes. Os dados de treinamento usados pelo fornecedor devem refletir não apenas cenários do mundo real, mas também ameaças específicas à sua organização e às pessoas.
O que eles usam em sua pilha de detecção para complementar IA/ML? A IA não é uma bala de prata e ainda está longe da perfeição, que talvez nunca atinja. Portanto, é crucial integrar outras técnicas já consolidadas, incluindo a análise e decisão humana, o que gera a necessidade de que o fornecedor tenha uma equipe interna de pesquisadores em segurança.
Antes mesmo de mergulhar nesses detalhes, avalie se a IA é ideal para seus desafios específicos. Os modelos de IA são complexos e computacionalmente intensivos, e podem levar mais tempo para serem executados do que funcionalidades menos complicadas. Às vezes, as técnicas baseadas em regras são mais eficazes, especialmente quando uma resposta rápida é crítica. Entenda qual objetivo de segurança você está tentando alcançar e qual caminho é melhor para resolver o problema.
O júri ainda não decidiu sobre GenAI
Muitos fornecedores de segurança integraram a IA silenciosamente em seus trabalhos há anos, mas o uso da IA, sobretudo a generativa, está tendo muito mais visibilidade hoje em dia.
À medida que a comunidade de segurança tenta compreender as implicações da IA, não podemos ignorar o fato de que criminosos e fraudadores também podem utilizá-la em seu benefício.
GenAI, em particular, tornou-se a área de preocupação que vem crescendo mais rapidamente nas organizações, de acordo com um levantamento da Proofpoint. Os dados são uma indicação de que as equipes de TI e de segurança estão levando essa ameaça a sério. E os líderes empresariais concordam. Em uma pesquisa global realizada pela Proofpoint no ano passado, com mais de 600 membros do conselho, 59% acreditavam que tecnologias emergentes como a GenAI representavam um risco de segurança para a sua organização.
Os atores de ameaças já estão abusando dessa tecnologia, usando grandes modelos de linguagem de código aberto para desenvolver ferramentas maliciosas, como WormGPT, FraudGPT e DarkBERT. Essas ferramentas permitem que os invasores criem e-mails de phishing muito melhores e os traduzam para diversos idiomas.
Não há dúvida de que a IA generativa abre novas possibilidades para os adversários. Mas muitas das preocupações podem ser exageradas, pelo menos neste momento. Os atores da ameaça não desistirão das suas táticas existentes nem reinventarão a roda enquanto os seus modelos atuais permanecerem lucrativos. Dessa forma, as equipes de segurança não devem se descuidar e garantir que as defesas estejam preparadas para qualquer tipo de ataque.
Marcelo Bezerra, gerente sênior de Engenharia de Vendas na Proofpoint América Latina.