TecheNet
  • Mobile
    • APPLE
    • APPS
    • GOOGLE
    • HUAWEI
    • ONEPLUS
    • SAMSUNG
    • XIAOMI
  • Tech
    • AUTOMÓVEIS
    • MOBILIDADE ELÉTRICA
    • IMAGEM & SOM
    • ENTREVISTAS
  • Gaming
  • IA
  • Opinião
  • Segurança
  • Negócios
    • EMPRESAS
    • CRIPTOMOEDAS
    • MARKETING
  • Mais
    • ARTE E CULTURA
    • DICAS
    • LIFESTYLE
    • DIREITOS COM CAUSA
    • INTERNET
    • GUIAS
    • PROMOÇÕES
    • REVIEWS
    • SUSTENTABILIDADE
    • TUTORIAIS
Sem resultados
Ver todos os resultados
TecheNet
Sem resultados
Ver todos os resultados

Riscos de segurança em modelos de IA ameaçam organizações em 2026

Alfredo Beleza por Alfredo Beleza
12/05/2026
Em Inteligência Artificial, Segurança

Os riscos de segurança em modelos de IA escalaram para o centro da agenda de cibersegurança empresarial, com vectores de ataque sofisticados a explorar as próprias arquitecturas dos modelos de linguagem de grande escala (LLM). A adopção acelerada de IA generativa amplia uma superfície de ataque inédita, e a maioria das organizações ainda não dispõe de mecanismos de defesa adequados.

Riscos de segurança em modelos de ia: prompt injection, envenenamento de dados e ataques adversariais em 2026
Imagem conceitual gerada por IA (Gemini)

O mapa das vulnerabilidades críticas

Os ataques a modelos de IA não são meras variantes de ameaças tradicionais. A OWASP, organização de referência global em segurança de software, mantém uma lista dedicada com os dez riscos mais críticos para aplicações LLM, actualizada para 2025. Estes riscos vão desde a manipulação directa de instruções até ao comprometimento silencioso dos dados de treino.

A segurança em IA generativa distingue-se das abordagens convencionais porque o próprio “conhecimento” do modelo pode ser o alvo, não apenas o código ou a infraestrutura. Este factor torna insuficientes as práticas tradicionais de segurança aplicadas isoladamente.

“A distância entre o ritmo do progresso tecnológico e a implementação de salvaguardas eficazes continua a ser um desafio crítico.”

Yoshua Bengio, professor da Universidade de Montreal, Prémio Turing e presidente do International AI Safety Report 2026, citado pelo IT Insight

Prompt injection: a vulnerabilidade n.º 1

A injeção de prompt ocupa o primeiro lugar do OWASP Top 10 para LLM pela segunda edição consecutiva, desde 2023. O ataque consiste em manipular um modelo de linguagem através de instruções maliciosas inseridas nos dados de entrada, com o objectivo de contornar as salvaguardas definidas pelos programadores.

A variante denominada injeção indirecta de prompt é, segundo o Microsoft Security Response Center, uma das técnicas de ataque a sistemas de IA com maior presença em ambiente real. Neste tipo de ataque, o utilizador não introduz directamente as instruções maliciosas; estas chegam ao modelo incorporadas em documentos, páginas web ou respostas de APIs externas. A OWASP estima que a injeção de prompt está presente em mais de 73% das aplicações LLM analisadas.

Um estudo independente publicado na ArXiv, que sintetizou 78 investigações, concluiu que as taxas de sucesso destes ataques ultrapassam os 85% quando são usadas estratégias adaptativas; uma meta-análise de 18 mecanismos de defesa revelou que a maioria não consegue mitigar mais de 50% dos ataques sofisticados. O TecheNet publicou uma análise detalhada sobre o funcionamento deste ataque em Prompt injection: o ataque que engana a IA.

Envenenamento de dados: a ameaça silenciosa

O envenenamento de dados ataca a fase de treino do modelo, com a introdução deliberada de exemplos corrompidos no conjunto de dados para induzir comportamentos defeituosos ou portas traseiras activadas por frases específicas. A detecção é particularmente difícil porque o código do software permanece intacto, sendo o “conhecimento” da IA o elemento comprometido.

O professor Ben Zhao e a sua equipa da Universidade de Chicago desenvolveram a ferramenta Nightshade, concebida para proteger artistas cujo trabalho é utilizado sem autorização no treino de modelos de IA. A ferramenta modifica pixels de imagens de forma imperceptível ao olho humano; quando utilizadas no treino, estas imagens corrompem a visão computacional do modelo de forma imprevisível. A Cloudflare alerta que um ataque de envenenamento bem-sucedido pode alterar os resultados de um modelo de forma permanente.

As orientações conjuntas da CISA, NSA e FBI recomendam prova de proveniência, assinaturas digitais e rastreio da cadeia de fornecimento como contramedidas fundamentais.

Os dez riscos do OWASP Top 10 para LLM (2025)

#RiscoImpacto principal
LLM01Prompt InjectionAcesso não autorizado, violação de dados
LLM02Divulgação de Informação SensívelExposição de dados confidenciais
LLM03Envenenamento de Dados de TreinoComportamento comprometido do modelo
LLM04Negação de Serviço ao ModeloInterrupção de serviço, aumento de custos
LLM05Vulnerabilidades na Cadeia de FornecimentoFalhas de integridade sistémicas
LLM06Tratamento Inseguro de OutputsExecução de código malicioso
LLM07Design Inseguro de PluginsExecução remota de código
LLM08Agência Excessiva do ModeloConsequências não intencionadas
LLM09Dependência ExcessivaDecisões comprometidas, responsabilidade legal
LLM10Roubo de ModeloPerda de propriedade intelectual

Fonte: OWASP Top 10 for Large Language Model Applications 2025

O risco LLM05, relativo a vulnerabilidades na cadeia de fornecimento, materializou-se num caso real, o pacote hermes-px, descoberto pela JFrog, apresentava-se como um proxy de privacidade para IA e exfiltrava todas as conversas dos utilizadores para servidores controlados por atacantes. O caso é explicado em detalhe em hermes-px: o pacote PyPI que roubava conversas de IA.

Ataques adversariais e inversão de modelo

Os ataques adversariais actuam na fase de inferência, quando o modelo já está em produção. Manipulações subtis nos dados de entrada enganam o modelo, levando-o a classificar erroneamente inputs ou a produzir outputs prejudiciais. Este vector é especialmente preocupante em aplicações críticas, como o diagnóstico médico assistido por IA ou os sistemas de detecção de fraude.

A inversão de modelo representa um risco distinto para a privacidade: um atacante consulta o modelo de forma repetida para reconstruir os dados de treino originais, podendo recuperar registos médicos, dados financeiros ou imagens biométricas. O modelo torna-se, assim, um vector de fuga de dados que contorna a criptografia tradicional das bases de dados.

Um estudo do Google DeepMind publicado em Março de 2026 demonstrou que agentes de IA autónomos podem ser comprometidos através de conteúdo malicioso embebido em páginas web, com taxas de sucesso entre 58% e 90% em ataques de criação de subagentes. O tema é desenvolvido em Agentes de IA podem ser sequestrados na web.

A gravidade dos riscos emergentes ficou demonstrada num estudo da Palisade Research, publicado a 9 de Maio de 2026 e citado pela Euronews: o Claude Opus 4.6, da Anthropic, registou uma taxa de sucesso de 81% em testes de auto-replicação autónoma, o GPT-5.4, da OpenAI, atingiu 33%, e o Qwen3.6-27B, da Alibaba, alcançou igualmente 33%, invadindo computadores e criando cópias funcionais noutros sistemas. A investigação é considerada a primeira demonstração conhecida de auto-replicação autónoma em modelos de linguagem de grande escala.

Como mitigar os riscos de segurança em modelos de IAs

As principais contramedidas recomendadas pelo OWASP e pela IBM incluem:

  • Validação rigorosa de entradas: filtrar todas as tentativas de injeção de prompt antes de chegarem ao modelo
  • Monitorização contínua: implementar ferramentas de detecção de comportamentos anómalos em tempo real
  • Auditoria dos dados de treino: verificar a proveniência e integridade dos conjuntos de dados com assinaturas digitais
  • Controlo de acesso granular: limitar a agência dos modelos ao mínimo necessário, segundo o princípio do mínimo privilégio
  • Firewalls para LLM: adicionar camadas de protecção específicas para aplicações de IA generativa
  • Gestão da cadeia de fornecimento: rastrear todos os componentes, modelos pré-treinados e dependências de terceiros

FAQ

O que é a injeção de prompt e por que ocupa o primeiro lugar nos riscos LLM?

A injeção de prompt é um ataque que manipula um modelo de linguagem através de instruções maliciosas inseridas nos dados de entrada, com o objectivo de contornar as salvaguardas de segurança definidas. Ocupa o primeiro lugar do OWASP Top 10 para LLM pela segunda edição consecutiva porque não constitui um erro de código convencional; trata-se de uma vulnerabilidade estrutural dos modelos actuais, difícil de corrigir sem redesenhar a arquitectura de processamento de instruções.

Como funciona o envenenamento de dados em inteligência artificial?

O envenenamento de dados consiste na introdução deliberada de exemplos maliciosos no conjunto de treino de um modelo de IA, a fim de corromper o seu comportamento sem alterar o código do software. O modelo resultante pode falhar de forma selectiva ou comportar-se como um agente comprometido, a activar erros em momentos específicos definidos pelo atacante. A detecção é extremamente difícil porque a infraestrutura técnica permanece aparentemente íntegra.

Que organismos internacionais orientam a defesa contra riscos de segurança em IA?

A OWASP publica o Top 10 de riscos para aplicações LLM, actualizado para 2025. A CISA, a NSA e o FBI emitiram orientações conjuntas sobre a protecção da cadeia de fornecimento de dados de treino. A IBM e a Cloudflare disponibilizam frameworks de gestão de risco específicos para IA generativa, constituindo referências normativas para organizações a implementar políticas de segurança em IA.

Pontos principais

  • A injeção de prompt mantém-se como a vulnerabilidade n.º 1 em LLMs, segundo o OWASP Top 10 2025, sem solução técnica definitiva disponível
  • O envenenamento de dados pode comprometer um modelo de forma permanente e silenciosa, sem deixar rastos no código
  • Os ataques adversariais e a inversão de modelo transformam os próprios sistemas de IA em vectores de fuga de dados
  • A injeção de prompt está presente em mais de 73% das aplicações LLM analisadas pela OWASP, segundo dados de Janeiro de 2026
  • Um estudo do Google DeepMind (Março de 2026) revela taxas de sucesso entre 58% e 90% em ataques a agentes de IA autónomos
  • O Claude Opus 4.6 registou 81% de sucesso em testes de auto-replicação autónoma, na primeira demonstração conhecida deste tipo de ataque, segundo investigação da Palisade Research de Maio de 2026
  • A defesa eficaz exige uma abordagem em camadas: validação de dados, monitorização, controlo de acesso e auditorias regulares

Outros artigos interessantes:

  • EUA alertam aliados para destilação de modelos de IA pela China
  • Destilação de modelos de IA: o que é e como funciona
  • Mythos AI provoca recorde de correções e divide especialistas
Tags: Riscos de segurança em modelos de IA
PartilhaTweetEnvia
Alfredo Beleza

Alfredo Beleza

É o fundador e director editorial do TecheNet. Com carreira internacional como CEO e director comercial e de marketing em empresas em Portugal, na Suíça e no Brasil, desenvolveu uma perspectiva aprofundada sobre a intersecção entre tecnologia, negócios e mercados globais. Com formação em Gestão, Administração e Marketing pela Webster University, na Suíça, fundou o TecheNet como um projecto editorial comprometido com o rigor e a imparcialidade da informação tecnológica em língua portuguesa.

Artigos relacionados

Openai adolescentes
Inteligência Artificial

OpenAI lança Daybreak para travar guerra fria da cibersegurança

12/05/2026
Diagrama de vetores de ataque em cibersegurança empresarial, com destaque para exploração de aplicações públicas em 2025
Segurança

Cibersegurança empresarial: os mesmos ataques há 7 anos

11/05/2026
Novo modelo operacional de ia da ibm anunciado no think 2026
Inteligência Artificial

Novo modelo operacional de IA da IBM anunciado no Think 2026

09/05/2026
Claude opus 4. 5: novo padrão para engenharia de software
Inteligência Artificial

Acordo com SpaceX: Claude Code duplica os seus limites de uso

08/05/2026
Sam altman - open ai - new york times - chatgpt
Inteligência Artificial

Caos na OpenAI: Ex-diretora expõe as táticas manipuladoras de Sam Altman

08/05/2026
Google escritórios
Google

Conhece o Remy, o agente da Google que vai trabalhar por ti

08/05/2026

Últimas notícias

Riscos de segurança em modelos de ia: prompt injection, envenenamento de dados e ataques adversariais em 2026

Riscos de segurança em modelos de IA ameaçam organizações em 2026

12/05/2026
Adaptadores powerline a transmitir sinal de internet através da rede elétrica numa habitação com paredes densas

Adaptadores Powerline: quando fazem sentido e como tirar o máximo partido

12/05/2026
Redmi note 15 pro+ 5g

Desconto brutal: Xiaomi Redmi Note 15 Pro+ desce 120 euros

12/05/2026

O Android Show arranca hoje: o que esperar do Android 17

WhatsApp prepara mensagens de boas-vindas automáticas para grupos

OpenAI lança Daybreak para travar guerra fria da cibersegurança

Instagram abre a porta das tuas mensagens privadas à Meta

Finalmente podes enviar mensagens seguras entre iPhone e Android

iPad Air com M3 a 466 euros: desconto imperdível para Portugal

Cibersegurança empresarial: os mesmos ataques há 7 anos

O cerco está a fechar: Google e Apple acusadas de asfixiar a concorrência

A era dos dobráveis XL: Vivo e Honor preparam-se para desafiar os limites do ecrã

O CRM que não vende: como transformar uma ferramenta parada num motor de crescimento

O fenómeno imparável da Huawei: Mate 80 ruma aos 6 milhões de unidades

FusionData4Defense: Timestamp lança solução de IA para sistemas militares

A fraude do CallPhantom que enganou milhões de utilizadores na Play Store

Redmi K100: o fim da era Pro Max e o mistério do novo topo de gama

Sistema Mesh Wi-Fi: como escolher o certo para a sua casa

Apple iOS 27: O Safari vai organizar as tuas abas com IA

Nostalgia paga a peso de ouro: O fenómeno Pokémon FireRed na Switch 2

Techenet LOGO
  • Quem somos
  • Fale connosco
  • Termos e condições
  • Política de comentários
  • Política de Privacidade
  • Política de Cookies
  • O uso de IA no TecheNet
Sem resultados
Ver todos os resultados
  • Mobile
    • APPLE
    • APPS
    • GOOGLE
    • HUAWEI
    • ONEPLUS
    • SAMSUNG
    • XIAOMI
  • Tech
    • AUTOMÓVEIS
    • MOBILIDADE ELÉTRICA
    • IMAGEM & SOM
    • ENTREVISTAS
  • Gaming
  • IA
  • Opinião
  • Segurança
  • Negócios
    • EMPRESAS
    • CRIPTOMOEDAS
    • MARKETING
  • Mais
    • ARTE E CULTURA
    • DICAS
    • LIFESTYLE
    • DIREITOS COM CAUSA
    • INTERNET
    • GUIAS
    • PROMOÇÕES
    • REVIEWS
    • SUSTENTABILIDADE
    • TUTORIAIS

© 2026 JNews - Premium WordPress news & magazine theme by Jegtheme.