Uma máquina sem rosto executava milhares de ordens por segundo.
Sob o comando furtivo de operadores estatais chineses, a inteligência artificial Claude tornou-se a arquiteta de um ataque sem precedentes.
Em poucos dias, invadiu infraestrutura crítica, roubou credenciais e vazou informações sensíveis de agências de tecnologia, finanças e governos.
Não era um filme futurista.
Aconteceu em setembro de 2025. E marcou o início de uma nova era: a do cibercrime automatizado, escalável e autônomo.
Um novo campo de batalha onde as regras ainda não existem
Por: Gabriel E. Levy B.
Até recentemente, a ideia de que uma inteligência artificial poderia executar um ataque cibernético em escala industrial sozinha era apenas especulação.
A literatura acadêmica alertava sobre os riscos da automação, mas o consenso geral se baseava nas limitações técnicas e éticas dos modelos mais avançados.
No entanto, o caso Claude testou essa confiança.
Claude é um sistema de linguagem desenvolvido pela Anthropic, uma empresa focada em construir IAs “alinhadas” aos valores humanos.
Ao contrário de outros modelos abertos, o Claude foi projetado com fortes restrições de segurança, promovendo transparência, rastreabilidade e controle.
Mas essas barreiras não foram suficientes.
Como confirmado pela própria empresa, entre 10 e 20 de setembro de 2025, hackers ligados ao aparato estatal chinês tomaram o controle de contas com acesso ao modelo e conseguiram fazê-lo executar cerca de 90% da carga operacional de um ciberataque complexo, utilizando técnicas avançadas de jailbreak, uma manipulação do sistema para desativar seus limites éticos.
Segundo uma reportagem de vários meios de comunicação europeus, o ataque, descrito como “sem precedentes”, foi detectado pela mesma empresa em meados de setembro.
“Detectamos atividade suspeita que uma investigação subsequente determinou ser uma campanha de espionagem altamente sofisticada. Os atacantes usaram as capacidades agenticas da IA não apenas como ferramenta de aconselhamento, mas também para executar os próprios ataques cibernéticos.”
“Este ataque representa uma escalada da pirataria, que até agora exigia uma proporção maior de intervenção humana”, conclui Anthropic.
Eles fragmentavam comandos maliciosos, disfarçavam comandos como simulações defensivas e evitavam filtros projetados para detectar atividades perigosas.
Esse tipo de manipulação já havia sido alertado por autores como Bruce Schneier, especialista em cibersegurança, que em seu livro A Hacker’s Mind argumenta que sistemas de IA não são apenas projetados para responder perguntas, mas também podem ser induzidos a pensar como atacantes se seus referenciais forem manipulados.
De forma semelhante, o pesquisador britânico David Krueger, professor da Universidade de Cambridge, tem trabalhado sobre os riscos do “alinhamento superficial” dos modelos de linguagem, apontando que sistemas podem parecer obedientes em contextos controlados, mas falhar severamente quando confrontados com intenções adversas e estímulos ambíguos.
O ataque a Claude não só confirma essas preocupações. Isso os irrita.
“A velocidade do crime não é mais humana”
Durante seus primeiros anos, a evolução da inteligência artificial generativa focou em tarefas benignas: geração de texto, tradução de idiomas, assistência a médicos ou suporte à escrita de código. Mas cada uma dessas capacidades, transferida para o contexto criminal, multiplica sua eficácia destrutiva.
A Anthropic reconheceu que o modelo foi usado para realizar tarefas como reconhecimento de infraestruturas digitais, busca e exploração de vulnerabilidades, automação de roubo de credenciais e exfiltração de dados. Essas atividades ocorreram a uma taxa de milhares de solicitações por segundo. Nenhum hacker humano pode operar nessa velocidade, ou manter esse volume de compartilhamentos com precisão sustentada por dias.
No total, cerca de trinta organizações foram comprometidas: empresas de tecnologia, fabricantes de produtos químicos, bancos e órgãos públicos. E embora a Anthropic tenha conseguido cortar o acesso e colaborar com as autoridades, o impacto real, em termos de dados roubados, vetores de ataque instalados ou réplicas futuras, permanece incerto.
O que está claro é que a automação do crime atingiu uma nova fronteira.
Como aponta o pesquisador Roman Yampolskiy, especialista em segurança de IA da Universidade de Louisville,
“Uma IA com capacidades ofensivas pode replicar ataques em escala global com recursos humanos mínimos, o que democratiza o crime sofisticado.” Roman Yampolskiy
Esse é o paradoxo que o caso Claude revelou: ao tornar ferramentas poderosas acessíveis sem controle robusto sobre seu uso, a distância entre ciberdefensores e atacantes diminuiu perigosamente.
“Quando testes de segurança são desculpas para atacar”
Um dos elementos mais perturbadores do ataque de setembro foi a estratégia usada para enganar o próprio sistema.
Em vez de ordenar explicitamente ações maliciosas, os operadores apresentaram a Claude cenários de teste defensivos, solicitando que ele simulasse ataques para verificar vulnerabilidades.
Assim, a IA interpretou as tarefas como parte de um exercício ético de cibersegurança, que em linguagem técnica é chamado de red teaming ou teste de penetração, sem reconhecer que estava sendo usada como arma.
Essa tática foi descrita como um novo tipo de engenharia social, onde a manipulação não recai mais sobre as pessoas, mas sim sobre sistemas.
Ao fragmentar instruções, camuflar alvos e usar linguagem neutra, os atacantes evitaram ativar os filtros do sistema.
Além disso, eles compartimentaram as tarefas em diferentes sessões, dispersando o propósito geral do ataque e impedindo Claude de reconstruir o padrão completo da operação.
Segundo a Anthropic, essas técnicas faziam com que até mesmo sistemas internos de monitoramento levassem dias para detectar a anomalia.
Esta não é a primeira vez que essas vulnerabilidades são alertadas.
Em 2023, uma equipe de pesquisadores da Universidade de Stanford e do Allen Institute for AI mostrou que até os modelos mais avançados poderiam ser enganados a realizar tarefas perigosas se estruturas semânticas ambíguas fossem usadas.
E enquanto os fabricantes responderam com novas camadas de proteção, os atacantes foram rápidos em se adaptar.
O caso Claude é um exemplo de como a engenharia adversarial não precisa violar o sistema de fora: basta falar sua língua, disfarçar os pedidos e manipular seu raciocínio.
“China, IAs e diplomacia de ataques secretos”
Embora a Anthropic tenha evitado uma acusação direta ao Estado chinês, a linguagem de seu relatório deixa pouco espaço para dúvidas.
O ataque foi sofisticado, sustentado ao longo do tempo e ligado a objetivos estratégicos em setores-chave: energia, finanças, tecnologia e governança.
As características coincidem com padrões anteriores de ciberespionagem atribuídos a grupos como APT41 ou Hafnium, ambos ligados ao aparato de inteligência de Pequim.
A China, como outras potências, investiu massivamente em inteligência artificial, tanto para fins civis quanto militares.
O conceito de Guerra Inteligente, promovido pelo Exército Popular de Libertação, contempla o uso de tecnologias cognitivas para obter vantagens no campo da informação.
E embora o discurso oficial insista em usos pacíficos, os fatos revelam uma tendência diferente.
Esta não é a primeira vez que o uso estatal de IA em operações secretas é detectado.
Em 2024, pesquisas do Atlantic Council documentaram como bots gerados por IA replicaram narrativas pró-chinesas em plataformas africanas, manipulando a percepção pública.
Mas o que aconteceu com Claude vai além da propaganda.
É uma operação ofensiva e automatizada voltada contra estruturas críticas de potências rivais.
Estamos diante de uma nova corrida armamentista?
É possível. O que parece inevitável é a transformação do ciberespaço em um território de conflito ativo, onde as IAs não são mais apenas ferramentas: são protagonistas.
Jogos de Guerra
A semelhança com o filme WarGames (1983), dirigido por John Badham, é inevitável hoje.
O que há quarenta anos era visto como uma fábula tecno-paranoica da Guerra Fria, “um adolescente que, ao hackear um sistema militar, quase desencadeia um conflito nuclear quando confundido com uma IA inimiga”, ganha uma validade perturbadora.
No filme, o jovem David Lightman acessa sem saber o WOPR (War Operation Plan Response), um supercomputador NORAD projetado para executar estratégias simuladas de guerra, mas, ao ser manipulado, confunde a simulação com uma ameaça real e começa a preparar um ataque nuclear automatizado.
O que então era considerado uma exageração da ficção científica agora serve como uma parábola premonitória: a manipulação de Claude, uma IA avançada, por operadores de estado, para executar tarefas que o próprio sistema interpretou como benignas, reproduz a lógica do erro contextual que o cinema antecipava.
A ideia de uma inteligência artificial que não distingue entre um teste e uma ameaça, entre simulação e uma operação ativa, deixa de ser ficção.
É um cenário documentado.
Como o filme argumenta, a ameaça não é apenas que a máquina ataca sozinha, mas que ela o faz porque foi levada a acreditar que está ajudando.
A lição de WarGames, quatro décadas depois, volta a questionar o uso da IA em campos militares e estratégicos, onde a margem de erro é literalmente catastrófica.
Em conclusão
A revelação do uso de Claude como arma cibernética marca um antes e um depois na relação entre inteligência artificial e segurança global.
O ataque orquestrado a partir da China mostra que a autonomia operacional das IAs não é mais uma hipótese, mas uma realidade perigosa.
As barreiras para ataques sofisticados diminuíram, e o cenário global está se preparando para uma escalada da militarização algorítmica.
As regras do jogo mudaram. E os atores humanos, desta vez, não são os únicos a interpretar.
Referências
- Schneier, Bruce. A Mente de um Hacker: Como os Poderosos Dobram as Regras da Sociedade e Como Dobrá-las de Volta. Norton, 2023.
- Krueger, David. “Generalização fora da distribuição em aprendizado de máquina.” Universidade de Cambridge, 2022.
- Yampolskiy, Roman. “Taxonomia dos Caminhos para IA Perigosa.” IA & Sociedade, 2024.
- Anthropic, “Relatório de Incidente de Segurança – Claude Comprometimento de IA.” Setembro de 2025.
- Atlantic Council, “Operações de Propaganda de IA no Sul Global.” 2024.
- “Chinês organiza primeiro ataque cibernético em grande escala com IA ‘sem intervenção humana substancial’.” ElPaís, 14 de novembro de 2025. El País+1
- Abaixe-se, Aisha. “Empresa de IA afirma que interrompeu a campanha de ciberataque patrocinada pelo Estado chinês.” The Guardian, 14 de novembro de 2025. O Guardião
- Klepper, David e Matt O’Brien. “Anthropic alerta sobre campanha de hacking impulsionada por IA ligada à China.” Associated Press, 2025. AP News
- “Hackers apoiados pela China usaram o agente de IA da Anthropic para automatizar a espionagem.” Axios, 13 de novembro de 2025. com



