Um artigo na Harvard Business Review, publicado em 11 de janeiro de 2026, emite um alerta contundente: paradigmas tradicionais de cibersegurança já não são suficientes.
Isso não é uma falha técnica isolada, mas uma mudança estrutural no equilíbrio de poder entre defensores e atacantes no ambiente digital.
A vulnerabilidade do EchoLeak, que afetou o Microsoft 365 Copilot, representa apenas a primeira brecha visível em um sistema projetado para um tipo de inimigo que não existe mais.
“Segurança projetada para ameaças que não existem mais”
Por: Gabriel E. Levy B.
O mundo digital está em cheque. Enquanto as empresas correm para implementar soluções de inteligência artificial para otimizar processos, reduzir custos e melhorar a experiência do cliente, os atacantes fazem exatamente a mesma coisa: usam IA para quebrar os sistemas que deveriam nos proteger.
Até recentemente, a maioria dos frameworks de cibersegurança era projetada para se defender contra humanos.
Usuários que clicavam em links enganosos, e-mails que se passavam por identidades e roubavam senhas em fóruns clandestinos.
Foi um jogo de reação: os atacantes inovaram e os defensores responderam.
Mas o surgimento da inteligência artificial mudou as regras.
Sistemas de IA, como grandes modelos de linguagem (LLMs), processam informações em velocidades que superam as capacidades humanas, e fazem isso por meio de camadas complexas e opacas que podem ser manipuladas sem que ninguém perceba.
Nesse cenário, o caso chamado EchoLeak, descoberto em junho de 2025 pela empresa Aim Security, foi um sinal de alerta do que pode acontecer no futuro. Diferente de outros ataques, a vítima não precisava clicar em nada nem cair em uma farsa. Os atacantes conseguiram extrair informações sensíveis aproveitando a forma como uma ferramenta de inteligência artificial da Microsoft chamada Copilot funcionava internamente.
A Microsoft resolveu o problema sem que os usuários precisassem fazer nada. Mas a mensagem era clara: hoje os ataques não dependem mais de erros das pessoas, mas visam diretamente o funcionamento interno dos sistemas de inteligência artificial.
O artigo da Harvard Business Review é franco: as formas atuais de nos proteger não estão preparadas para um mundo onde as máquinas aprendem por conta própria e tomam decisões.
O especialista Zayd Enam explica que, embora antes se pensasse que os sistemas funcionassem sempre da mesma forma, com inteligência artificial isso não é mais o caso.
Como resultado, os ataques podem ser mais difíceis de prever, mudar o tempo todo e frequentemente passar despercebidos pelos sistemas tradicionais de segurança.
Um exército de máquinas: mais identidades do que humanos
A natureza em constante mudança da infraestrutura tecnológica corporativa adiciona um novo nível de complexidade. Um relatório de dezembro de 2025, também publicado pela Harvard Business Review, revela que as empresas agora lidam com uma proporção de 82 identidades de máquinas para cada funcionário humano. Essas identidades automatizadas, criadas para que bots e serviços possam se comunicar entre si, se tornaram um novo campo minado para a segurança.
Essas identidades, muitas vezes sem supervisão direta, podem ser forjadas e usadas para desencadear ações automáticas: acesso a sistemas internos, transferência de arquivos, movimentos financeiros ou ativação de serviços em nuvem. Isso implica que uma única identidade comprometida pode causar danos multiplicados por dezenas ou centenas de processos automatizados.
A empresa de segurança GreyNoise, que monitora infraestruturas digitais por meio de honeypots, registrou mais de 91.000 sessões de ataque direcionadas a plataformas de IA entre outubro de 2025 e janeiro de 2026. Essas campanhas não apenas exploraram vulnerabilidades conhecidas em ferramentas como Twilio ou a plataforma de modelagem Olama; eles também direcionaram seus esforços para os próprios LLMs.
O GPT-4o da OpenAI, Claude da Anthropic, Llama da Meta e Gemini do Google foram sistematicamente sondados por meio de consultas projetadas para evitar sistemas de detecção.
Os atacantes não tentavam danificar diretamente os modelos; Eles buscavam entender suas reações, construir perfis de resposta e mapear seus mecanismos internos.
As informações extraídas permitem ataques subsequentes mais direcionados, silenciosos e perigosos.
Nas palavras do acadêmico Nicolas Papernot, pesquisador de segurança e aprendizado de máquina da Universidade de Toronto: “As IAs não apenas aprendem com dados, como também podem ser manipuladas por eles.”
“O inimigo é invisível, mas real”
A vulnerabilidade do EchoLeak não foi um caso isolado. A crescente sofisticação das campanhas que visam infraestruturas de IA revela uma tendência clara: os atacantes estão profissionalizando suas ferramentas, e a inteligência artificial não é mais apenas uma vítima potencial, mas também uma arma.
A Moody’s, agência de classificação de riscos, alertou recentemente sobre a proliferação de “malware adaptativo” e “ataques autônomos” durante 2026.
A capacidade da IA de gerar deepfakes, compor e-mails personalizados de phishing em segundos ou automatizar a identificação de backdoors em sistemas complexos eleva a ameaça a um novo patamar. A possibilidade de ataques sem intervenção humana, executados por máquinas que aprendem com cada tentativa fracassada, traça um futuro de confronto constante em um terreno que evolui em tempo real.
Além disso, especialistas alertam sobre a fragilidade dos filtros de segurança atuais. Muitas plataformas dependem de sistemas de moderação baseados em regras fixas ou modelos de detecção treinados em padrões anteriores. Mas os atacantes já aprenderam a desviá-los. As consultas “inofensivas” registradas pelo GreyNoise, por exemplo, foram projetadas para evitar quaisquer palavras-chave que pudessem ativar mecanismos de proteção. Uma espécie de reconhecimento passivo que antecede ataques cirúrgicos.
Nesse novo cenário, a cibersegurança deve parar de pensar em termos de “perímetro” ou “usuário autorizado”. Em um mundo governado por IA, a segurança não pode depender de quem acessa, mas sim de como os sistemas se comportam depois de obterem acesso.
“Quando as armadilhas se ativarem”
Na prática, casos recentes mostram como até as arquiteturas mais protegidas podem falhar contra ataques liderados por IA. A campanha gravada durante o Natal de 2025 explorou funções legítimas de download de modelos e webhooks do Twilio para infiltrar códigos maliciosos.
A velocidade do ataque foi tal que, em 48 horas, 1.688 sessões foram gravadas, muitas delas encadeadas de diferentes locais, usando identidades de máquinas previamente comprometidas.
Outro caso, ocorrido em 28 de dezembro, implantou uma operação massiva de reconhecimento em 73 pontos de acesso a modelos de IA.
Usando dois endereços IP com antecedentes documentados, os atacantes enviaram mais de 80.000 consultas, coletando informações sem ativar mecanismos de defesa.
Os pesquisadores dizem que o objetivo era construir um mapa detalhado da superfície de ataque, a partir do qual lançar ações mais sofisticadas posteriormente.
A grande ironia é que muitos desses ataques não exigiam vulnerabilidades técnicas propriamente ditas.
Era suficiente para entender como os modelos funcionavam, prever suas respostas e explorá-las em favor do atacante. Esse novo paradigma, conhecido como injeção de prompts ou injeção entre prompts, utiliza os próprios sistemas de IA como ferramentas de ataque, manipulando-os por meio de linguagem natural cuidadosamente desenhada.
Em um ambiente onde as ferramentas tradicionais de defesa dependem de assinaturas familiares ou padrões repetitivos, a adaptabilidade da IA se torna sua maior ameaça.
Em conclusão, a cibersegurança está enfrentando uma crise de identidade. As ameaças atuais não vêm apenas de hackers humanos maliciosos, mas de sistemas automatizados que aprendem, se adaptam e superam defesas projetadas para um mundo que não existe mais. Como evidenciado pelo caso do EchoLeak e pelas campanhas recentes detectadas pela GreyNoise, a inteligência artificial redefiniu o campo de batalha. Empresas, governos e usuários precisam repensar não só como se defendem, mas também o que realmente significa estar seguro em um ambiente onde até máquinas podem mentir, persuadir e atacar.
Referências:
- Harvard Business Review. (2026). Ameaças baseadas em IA quebram modelos tradicionais de cibersegurança.
- Mira Segurança. (2025). CVE-2025-32711: Relatório de Divulgação do EchoLeak.
- Inteligência GreyNoise. (2026). Registros de Campanhas de Ameaças de IA – 4º trimestre de 2025.
- Análise do Moody’s. (2025). Perspectiva de Risco Cibernético 2026.
- Schneier, Bruce. (2023). A Mente de um Hacker: Como os Poderosos Dobram as Regras da Sociedade e Como Dobrá-las de Volta.
- Papernot, Nicolas et al. (2021). Segurança e privacidade do aprendizado de máquina. Anais do IEEE.



