Inteligência Artificial

IA na defesa e no ataque: a nova ordem da cibersegurança, segundo a CrowdStrike

Para Jeferson Propheta, diretor da CrowdStrike no Brasil, as empresas aceleram uso de IA para proteção, mas, ao mesmo tempo, os ataques se tornam mais sofisticados

Jeferson Propheta: diretor da CrowdStrike no Brasil

Jeferson Propheta: diretor da CrowdStrike no Brasil

André Lopes
André Lopes

Repórter

Publicado em 7 de março de 2025 às 14h57.

Última atualização em 7 de março de 2025 às 15h41.

Em julho de 2024, a CrowdStrike enfrentou um dos episódios mais graves da história da cibersegurança. Uma atualização do seu software Falcon causou um apagão global, afetando 8,5 milhões de dispositivos Windows e interrompendo operações em empresas, hospitais e aeroportos. O impacto foi tão severo que o presidente do Comitê de Segurança Interna dos EUA classificou o evento como "o maior apagão de TI da história".

Apesar da crise inicial, que levou a uma queda de 30% no valor das ações da companhia, a CrowdStrike conseguiu reverter a situação. Em menos de oito meses, a empresa recuperou os US$ 30 bilhões perdidos em valor de mercado e superou sua avaliação pré-incidente. O CEO George Kurtz afirma que a empresa transformou o desastre em uma "vantagem competitiva", reforçando sua plataforma de segurança baseada em inteligência artificial (IA).

Os números confirmam a recuperação. No trimestre encerrado em 4 de março de 2025, a CrowdStrike registrou US$ 4,24 bilhões em receita recorrente anual, um crescimento de 23% em relação ao ano anterior. O resultado superou a previsão de US$ 4,21 bilhões estimada por analistas. No período, a empresa adicionou US$ 224 milhões em novas receitas recorrentes. Para o próximo ano fiscal, a companhia projeta uma receita entre US$ 4,74 bilhões e US$ 4,81 bilhões, alinhada às expectativas do mercado.

Nesse cenário, o uso da IA na cibersegurança se tornou um tema central. Se, por um lado, empresas usam IA para prever e bloquear ataques, criminosos também se aproveitam da tecnologia para automatizar invasões e aprimorar golpes. Nesse novo cenário, Jeferson Propheta, diretor da CrowdStrike no Brasil, e Marcos Ferreira, especialista técnico em cibersegurança da empresa, detalharam como a IA tem funcionado na prática para a empresa e seus clientes. Em entrevista à EXAME, eles explicam como a inteligência artificial está sendo usada tanto na defesa quanto no ataque e quais os desafios para o futuro da segurança digital.

A inteligência artificial está acelerando os ataques cibernéticos. As empresas buscam formas de defesa que se reconfiguram dinamicamente. O que já é possível hoje para se defender?

Jeferson Propheta – A inteligência artificial, especialmente a generativa, cresce de forma exponencial e traz desafios inéditos. O conceito de zero-day, vulnerabilidades desconhecidas que podem ser exploradas por atacantes antes de serem corrigidas, voltou a ser uma grande preocupação. Com IA, um invasor pode criar uma falha dessas a cada momento. Por outro lado, as empresas têm usado IA para criar sistemas de defesa que aprendem continuamente. Atualmente, muitas organizações treinam modelos de IA com seus próprios dados para gerar respostas mais precisas e automatizar processos, inclusive na segurança. Mas isso também traz riscos: quando você ensina a IA sobre sua empresa, ela pode se tornar um vetor de ataque se não for devidamente protegida.

Como esse vetor de ataque funciona na prática?

Jeferson Propheta – Um dos principais riscos é o vazamento de dados. Um atacante pode manipular um chatbot, por exemplo, para revelar informações confidenciais. Ele pode interagir com a IA de forma estratégica, fazendo perguntas sutis até obter dados sensíveis, como transações financeiras ou segredos comerciais. Além disso, há o risco de envenenamento de dados. Isso acontece quando um invasor consegue inserir informações falsas na IA, alterando sua base de conhecimento. Se um criminoso tiver acesso ao modelo e alterar respostas, ele pode fazer com que a IA forneça informações erradas para os funcionários de uma empresa, comprometendo operações críticas.

E na frente de usuários e consumidores, como a IA tem ajudado os criminosos em golpes?

Marcos Ferreira – Um exemplo simples é o phishing, ataque que engana vítimas por meio de e-mails fraudulentos. Antigamente, os phishings eram cheios de erros ortográficos e traduções ruins. Hoje, com IA, os criminosos geram e-mails e sites falsos praticamente idênticos aos reais, dificultando a detecção. Outro exemplo é o uso de IA para gerar códigos de programação maliciosos. Desenvolvedores podem recorrer a modelos de IA para obter sugestões de código, sem perceber que algumas dessas sugestões podem conter vulnerabilidades propositalmente inseridas por atacantes. O criminoso pode até criar bibliotecas falsas e disponibilizá-las em repositórios públicos, esperando que um desenvolvedor as utilize em um projeto legítimo.

Jeferson Propheta – A IA também pode ser usada para automatizar ataques. Imagine um criminoso usando um modelo de IA para descobrir, em segundos, quais empresas têm sistemas vulneráveis. Esse tipo de automação faz com que os ataques cibernéticos sejam mais rápidos e eficientes do que nunca.

Já existe um cenário onde a IA pode ser usada para contra-atacar criminosos?

Jeferson Propheta – O conceito de hackback, ou seja, contra-atacar um invasor, é uma zona cinzenta no mundo da cibersegurança. A dificuldade é que muitos ataques vêm de infraestruturas de terceiros. Muitas vezes, criminosos utilizam servidores de empresas legítimas, como sites de prefeituras ou organizações governamentais, para lançar ataques. Se uma empresa tentasse um contra-ataque, poderia acabar atingindo um sistema legítimo. O que podemos fazer é usar IA para fortalecer a defesa, tornando os sistemas mais resilientes. Hoje, modelos de IA ajudam a identificar invasões em segundos, reduzindo drasticamente o tempo de resposta.

Marcos Ferreira – A IA pode não apenas identificar ataques, mas também prever padrões suspeitos. Modelos avançados já conseguem analisar bilhões de eventos diariamente e alertar sobre atividades anômalas, o que seria impossível de fazer manualmente.

A IA também pode ser usada para detectar ameaças internas, como funcionários vazando informações?

Jeferson Propheta – Sim. Já existem soluções que usam IA para monitorar o comportamento de funcionários e identificar anomalias. Se um colaborador acessa um sistema de maneira incomum ou tenta transferir um volume alto de dados, a IA pode gerar um alerta. Esse tipo de análise é desafiador porque um comportamento fora do padrão nem sempre significa uma ameaça real. Um funcionário pode, por exemplo, estar apenas realizando uma tarefa incomum, mas legítima. Por isso, a IA ainda precisa do suporte humano para validar suspeitas.

O avanço da IA exige que as empresas adotem novas práticas de segurança?

Jeferson Propheta – Com certeza. O maior erro que uma empresa pode cometer é adotar IA sem pensar em segurança desde o início. Muitas organizações estão colocando IA em operação sem garantir que suas respostas sejam seguras. Isso pode levar a vazamentos de informações, ataques automatizados e decisões erradas baseadas em dados comprometidos.

Marcos Ferreira – Além disso, falta conscientização. Muitos desenvolvedores estão usando IA sem entender os riscos. Hoje, um programador pode criar um código em minutos com IA, mas pode estar inserindo uma vulnerabilidade sem perceber. As empresas precisam treinar seus times e adotar boas práticas para mitigar esses riscos.

Acompanhe tudo sobre:cibersegurançaHackersInteligência artificial

Mais de Inteligência Artificial

"Marketing sem IA é queimar dinheiro": a visão de Thiago Finch sobre o futuro dos anúncios

Inteligência artificial da Meta, o modelo Llama 4, deve ganhar recurso para reconhecer voz

Steve Wozniak critica Elon Musk por demissões em massa em agências federais

Google expande capacidades de IA para responder perguntas e quer 'ser mais Perplexity'