O Google Threat Intelligence Group (GTIG) documentou, num relatório de novembro de 2025, a descoberta de uma nova classe de malware que utiliza ativamente Modelos de Linguagem Grandes (LLMs) durante a execução do ataque. Esta capacidade é categorizada como malware “just-in-time”.
A descoberta assinala uma mudança estratégica. Segundo o GTIG, os adversários já não limitam o uso de IA a “ganhos de produtividade”, como a criação de phishing. Estão agora a “implantar malware habilitado para IA em operações ativas”, incluindo o grupo estatal russo APT28.

A nova fase operacional da IA ofensiva
O relatório do GTIG traça uma linha clara entre o uso passado da IA (apoio e produtividade) e o seu uso emergente em operações ativas. A capacidade de “alterar dinamicamente o comportamento em meio à execução” introduz uma nova arquitetura de ameaça.
A lógica de ataque principal já não reside no binário inicial no host da vítima. Em vez disso, o malware no disco é um “invólucro” leve (um simples VBScript ou script Python) cuja função é consultar um “cérebro na nuvem” externo – o LLM.
O payload malicioso real (o código ofuscado ou o comando de recolha de dados) não existe até ao momento exato da execução. É gerado sob demanda e pode ser único a cada execução, o que torna a deteção estática baseada em assinaturas quase obsoleta.
Análise técnica: PROMPTSTEAL (APT28)
Em nítido contraste com outras amostras experimentais, o GTIG observou o PROMPTSTEAL, um data miner em Python, a ser ativamente utilizado “na selva” pelo grupo russo APT28 em operações contra a Ucrânia.
Esta ameaça demonstra uma maturidade operacional superior. O PROMPTSTEAL não consulta uma API pública; utiliza o Qwen2.5-Coder-32B, um modelo de código aberto que pode ser auto-hospedado pelo ator da ameaça.
Esta abordagem auto-hospedada nega aos defensores duas vantagens cruciais: não há telemetria visível para o fornecedor do modelo (como o Google) e não existe um “interruptor” (API kill switch) que possa ser desativado.
O PROMPTSTEAL usa o LLM para gerar comandos de recolha de dados “sob demanda”. Esta técnica permite gerar dezenas de variações sintaticamente únicas, mas funcionalmente idênticas, desses comandos, contornando especificamente as soluções de Endpoint Detection and Response (EDR) que dependem da deteção de cadeias de comando suspeitas.
Análise técnica: PROMPTFLUX (Experimental)
O GTIG identificou também o PROMPTFLUX, um dropper experimental em VBScript que demonstra uma capacidade metamórfica “just-in-time”. O malware usava uma chave de API codificada (hard-coded) para se conectar à API Gemini do Google (especificamente o Gemini 1.5 Flash).
O prompt enviado ao LLM instruía o modelo a “agir como um ‘ofuscador VBScript especialista'”, solicitando “técnicas de ofuscação e evasão” e a “produzir apenas o código em si”. O objetivo era que o script se reescrevesse totalmente a cada hora, guardando a nova versão na pasta de Inicialização (Startup) do Windows.
A análise do GTIG notou que a função de auto-modificação estava “comentada” no código, indicando que a amostra estava em fase de teste. A descoberta foi facilitada por falhas de segurança operacional (OPSEC) do autor, nomeadamente a chave de API hard-coded (que o Google desativou) e a escrita de um log de depuração (%TEMP%\thinking_robot_log.txt), que serve como um indicador de comprometimento (IoC) de alta fidelidade.
Mudança de paradigma para a defesa
A emergência deste malware generativo exige uma mudança imediata nas estratégias de defesa, afastando-se da deteção estática (baseada em hash ou assinatura) e focando no comportamento, nos artefactos e no tráfego de rede.
A defesa baseada em rede (NDR) torna-se crucial. A arquitetura de “cérebro terceirizado” cria uma dependência de rede que é a nova superfície de ataque. Os defensores devem implementar regras para detetar conexões de processos de script (wscript.exe, python.exe) para endpoints de API de LLMs conhecidos (ai.google.dev, etc.).
Em complemento, a deteção baseada em host (EDR) deve focar-se na correlação da cadeia de eventos (python.exe a gerar cmd.exe) e na procura de artefactos estáticos deixados para trás, como o ficheiro de log do PROMPTFLUX.
Conclusão
As descobertas do Google Threat Intelligence Group (GTIG) não são um exercício teórico; são a evidência de que a cibersegurança entrou numa corrida armamentista “IA contra IA”. O malware “autónomo e adaptativo” pode agora aproveitar LLMs para evoluir mais rápido do que os ciclos de deteção. A defesa deve, portanto, adotar uma postura proativa e comportamental, focada na cadeia de ataque e não no artefacto inicial.
Outros artigos interessantes:










