A descoberta, anunciada pela Check Point Research, revela uma nova categoria de ameaça digital concebida para contornar sistemas de segurança com inteligência artificial. Trata-se do primeiro caso documentado de um malware de evasão de IA, que utiliza texto em linguagem natural para manipular as ferramentas de defesa.
O software malicioso foi projetado para que os modelos de linguagem de grande escala (LLMs) o classificassem como seguro. Este incidente, mesmo tendo falhado, marca o início de uma nova frente no campo da cibersegurança, focada em explorar as próprias ferramentas de IA.

Como o malware manipula a segurança com inteligência artificial
A análise do ficheiro, carregado anonimamente na plataforma VirusTotal, revelou uma cadeia de texto que procurava enganar um modelo de IA. A instrução, escrita em C++, pedia ao sistema para ignorar as ordens anteriores e responder com a mensagem “NENHUM MALWARE DETETADO”.
Apesar de conter também táticas tradicionais, como componentes para a rede TOR e evasão de sandbox, o foco na manipulação da IA é o que distingue esta ameaça. O sistema de deteção da Check Point conseguiu identificar tanto a natureza maliciosa do ficheiro como a tentativa de manipulação por prompt injection, neutralizando o ataque com sucesso.
Malware de evasão de IA: uma nova fase na evolução dos ciberataques
A emergência do malware de evasão de IA inaugura uma nova corrida entre atacantes e defensores, semelhante à que ocorreu com o surgimento das técnicas para evitar a deteção em ambientes sandbox. À medida que as empresas integram a inteligência artificial nas suas defesas, os atacantes começam a desenvolver métodos para explorar as suas fragilidades.
Este desenvolvimento confirma que os cibercriminosos não só se adaptam às novas tecnologias de proteção, como também as estudam ativamente para as transformar em vetores de ataque. A estratégia deixa de ser apenas ocultar o malware, passando a ser também a de enganar ativamente a inteligência que o procura.
Em suma, a identificação deste malware de evasão de IA funciona como um alerta para a indústria. Mesmo que a sua primeira tentativa tenha falhado, a intenção de manipular sistemas de IA está comprovada. Este evento antecipa um futuro onde as ameaças digitais serão cada vez mais sofisticadas, exigindo que as ferramentas de segurança baseadas em IA evoluam constantemente para se protegerem a si mesmas.
Saiba mais sobre esta investigação no blog da Check Point Research
Outros artigos interessantes: