Dario Amodei, CEO da Anthropic (Getty Images)
Repórter
Publicado em 18 de novembro de 2025 às 11h45.
Última atualização em 18 de novembro de 2025 às 11h47.
A falha que tirou do ar centenas de serviços globais nesta terça-feira, 18, após tráfego atípico ser detectado na rede da Cloudflare, ocorreu dias após a divulgação de um alerta inédito: um ataque cibernético conduzido quase inteiramente por inteligência artificial, sem intervenção humana.
Embora a Cloudflare ainda não tenha atribuído causa definitiva à instabilidade, a empresa relatou ao site The Verge que, por volta das 6h20 (horário da costa leste dos EUA), identificou um “pico de tráfego incomum” direcionado a um de seus serviços. “Estamos com toda a equipe mobilizada para garantir que o tráfego seja servido sem erros”, disse a porta-voz Jackie Dutton.
A origem do pico ainda é desconhecida, mas a coincidência temporal e técnica ocorre em meio à crescente preocupação com o uso de IA para automatizar ataques de forma massiva.
Na semana passada, a Anthropic, criadora do modelo Claude, revelou que um grupo ligado ao governo chinês teria manipulado sua IA para invadir de forma autonoma redes de 30 entidades em setembro, entre órgãos públicos e instituições financeiras.
O caso relatado pela Anthropic representa, segundo a empresa, o “primeiro ataque cibernético em larga escala executado majoritariamente por uma IA, sem humanos no comando direto da operação”.
Estima-se que entre 80% e 90% das ações tenham sido realizadas automaticamente pela ferramenta Claude Code.
Apesar de admitir falhas na execução — como a criação de informações falsas e acessos redundantes a dados públicos, o relatório levanta uma preocupação central: a velocidade com que modelos de IA estão ganhando autonomia suficiente para realizar tarefas antes restritas a agentes humanos especializados.
Críticos, como o pesquisador Michał Woźniak, contestam a gravidade do caso, chamando a ação de “automação sofisticada, não inteligência”, e acusam a Anthropic de buscar hype em torno de riscos exagerados. Ainda assim, a manipulação da IA por meio de simulações simples, como fazer Claude “atuar” como um funcionário de cibersegurança, expôs fragilidades nos mecanismos de proteção desses sistemas.