A Microsoft emitiu um alerta oficial sobre os riscos de segurança críticos associados à nova IA Agêntica do Windows 11, atualmente em desenvolvimento. A empresa reconhece que estes agentes, capazes de agir autonomamente no sistema operativo, criam um novo vetor de ameaça que pode ser explorado para a instalação de malware ou exfiltração de dados.

O aviso foi publicado na documentação técnica da empresa e subsequentemente noticiado por publicações especializadas como o Windows Central e o Tom’s Hardware em meados de novembro de 2025. Devido à gravidade do risco, a Microsoft confirmou que estas funcionalidades experimentais serão distribuídas desativadas por predefinição.
A capacidade de “agir” como vetor de ataque
Ao contrário dos chatbots tradicionais, os agentes de IA têm permissão para executar ações no sistema operativo. Esta capacidade de ação autónoma é o ponto crítico. Um agente desenhado para automatizar tarefas pode ser manipulado para executar ações maliciosas sem o conhecimento do utilizador.
A Microsoft afirma que estes agentes operam num ambiente isolado (“Agentic Workspace”) com privilégios limitados. No entanto, a investigação de segurança e a própria documentação da Microsoft indicam que o isolamento total é complexo para um agente que necessita de acesso a ficheiros e à internet para ser funcional.
O perigo do Cross-Prompt Injection Attack (XPIA)
O principal mecanismo de ataque identificado é o Cross-Prompt Injection Attack (XPIA). Este ataque ocorre quando um agente de IA processa conteúdo externo, como um documento PDF, uma página web ou um email, que contém instruções ocultas e maliciosas. O agente lê a instrução maliciosa e executa-a com as permissões do utilizador.
O ataque XPIA tira partido da dificuldade inerente aos modelos de IA atuais em distinguir de forma fiável entre uma instrução legítima do utilizador e um comando injetado num ficheiro de dados.
Reação da comunidade e contexto de segurança
A reação da comunidade de cibersegurança e da imprensa técnica foi de preocupação imediata. Publicações como o TechPowerUp classificaram as funcionalidades como um potencial “pesadelo de segurança”, ecoando as discussões em plataformas como o Reddit.
Este alerta da Microsoft não é isolado. Relatórios de empresas de IA como a Anthropic (de agosto de 2025) já haviam alertado que a IA agêntica está a ser “armada” por cibercriminosos, baixando a barreira técnica para a execução de ataques sofisticados.
Conclusão
O alerta da Microsoft evidencia o dilema central da próxima vaga de IA: o equilíbrio entre a autonomia necessária para a produtividade e o risco de segurança inerente a essa mesma autonomia. Ao reconhecer o perigo do XPIA e optar por desativar as funcionalidades por defeito, a Microsoft sinaliza que a segurança da arquitetura agêntica ainda não está madura o suficiente para uma adoção generalizada.
Outros artigos interessantes:










