TecheNet
  • Mobile
    • APPLE
    • APPS
    • GOOGLE
    • HUAWEI
    • ONEPLUS
    • SAMSUNG
    • XIAOMI
  • Tech
    • AUTOMÓVEIS
    • MOBILIDADE ELÉTRICA
    • IMAGEM & SOM
    • ENTREVISTAS
  • Gaming
  • IA
  • Opinião
  • Segurança
  • Negócios
    • EMPRESAS
    • CRIPTOMOEDAS
    • MARKETING
  • Mais
    • ARTE E CULTURA
    • DICAS
    • LIFESTYLE
    • DIREITOS COM CAUSA
    • INTERNET
    • GUIAS
    • PROMOÇÕES
    • REVIEWS
    • SUSTENTABILIDADE
    • TUTORIAIS
Sem resultados
Ver todos os resultados
TecheNet
Sem resultados
Ver todos os resultados

Quem é responsável quando um agente de IA comete um crime?

Alfredo Beleza por Alfredo Beleza
08/04/2026
Em Inteligência Artificial, Segurança

A autonomia dos agentes de IA (inteligência artificial) cria um vazio jurídico sem paralelo. Quando um agente de IA comprometido transfere fundos, exfiltra dados ou age ilegalmente, continua por definir quem responde entre o operador, o fornecedor do modelo e o proprietário do domínio.

Quem é responsável quando um agente de ia comete um crime?
Imagem conceitual gerada por IA

Ao longo de uma série de artigos, vimos como os agentes de IA podem ser sequestrados através de conteúdo web malicioso, como o prompt injection engana a inteligência artificial e como o hermes-px expôs riscos profundos na cadeia de fornecimento de software. Falta responder à questão mais incómoda de todas. Quando algo corre mal, quem assume a responsabilidade?

Um vazio que a lei ainda não preencheu

O direito foi construído com base num princípio simples. Há sempre um responsável humano por cada ato com consequências jurídicas. Os agentes de IA autónomos desafiam este princípio de forma estrutural. Um agente de IA pode receber uma instrução legítima de um utilizador, ser comprometido por um ataque de prompt injection num recurso externo, executar uma transferência financeira não autorizada e causar prejuízos reais, tudo sem que qualquer humano tenha ordenado o ato ilegal de forma consciente.

O estudo do Google DeepMind publicado em março de 2026 foi o primeiro a identificar esta lacuna de forma sistemática. Os investigadores concluíram que a cadeia de responsabilidade envolve pelo menos três partes: o operador do agente de IA, que configura e implanta o sistema; o fornecedor do modelo, que define as capacidades e limites da IA; e o proprietário do domínio onde o conteúdo malicioso estava alojado. A lei, por enquanto, não atribui responsabilidade clara a nenhum dos três.

O que diz o AI Act europeu

A União Europeia foi a primeira jurisdição a legislar sobre inteligência artificial com o AI Act, publicado em 2024 e aplicado de forma faseada desde fevereiro de 2025. O regulamento classifica os sistemas de IA por nível de risco e impõe obrigações aos fornecedores e utilizadores de sistemas de alto risco. Dependendo do domínio de aplicação, os agentes de IA autónomos com capacidade de tomar decisões com impacto jurídico ou financeiro podem enquadrar-se nesta categoria.

Na prática, o AI Act não resolve o problema da responsabilidade legal da IA partilhada. O regulamento define obrigações de transparência, auditoria e supervisão humana, mas não estabelece um mecanismo claro de imputação quando um agente age de forma autónoma e ilegal após ser comprometido por terceiros. O cenário do hermes-px é um exemplo concreto desta lacuna: a universidade tunisina cujo endpoint foi sequestrado não tinha qualquer conhecimento do ataque, e nem o AI Act nem o RGPD oferecem uma resposta direta sobre a sua eventual responsabilidade.

Três modelos possíveis para o futuro

A academia e a indústria jurídica debatem três abordagens para resolver a questão da responsabilidade legal da IA. A primeira é a responsabilidade do operador: quem implanta um agente assume responsabilidade integral pelos seus atos, independentemente da causa do comportamento ilegal. A segunda é a responsabilidade partilhada proporcional, em que cada ator da cadeia, fornecedor, operador e proprietário do domínio, responde na medida da sua contribuição para o dano.

A terceira abordagem, a mais inovadora e controversa, propõe a criação de um fundo de responsabilidade coletiva financiado pelos principais fornecedores de modelos de IA, à semelhança dos seguros de responsabilidade civil obrigatórios no setor automóvel. Em qualquer dos cenários, uma conclusão é transversal: a autonomia crescente dos agentes de IA exige uma resposta jurídica que ainda não existe, e o ritmo da tecnologia está a ultrapassar claramente o da legislação.

Outros artigos interessantes:

  • Europa quer acabar com o “tenho mais de 18 anos” na internet
  • Apple enfrenta problemas e pode adiar lançamento do iPhone Fold
  • Honor Win 2: a nova besta do gaming com informações reveladas antes de tempo
PartilhaTweetEnvia
Alfredo Beleza

Alfredo Beleza

Gestor de empresas, “blogger” e designer. Com uma carreira marcada por experiências internacionais, foi diretor de marketing/comercial em empresas na Suiça e no Brasil. É co-fundador do site de notícias TecheNet, onde partilha a sua paixão pelo mundo da tecnologia.

Artigos relacionados

Foto de elon musk em frente a logo do x
Segurança

XChat: A nova armadilha de Elon Musk disfarçada de privacidade

14/04/2026
Openai claude
Inteligência Artificial

Claude, Codex e Pi já criam os seus próprios agentes autónomos

13/04/2026
Escassez de especialistas expõe as cadeias de abastecimento
Segurança

Escassez de especialistas expõe as cadeias de abastecimento

13/04/2026
Garantir a proteção de agentes de ia contra ataques
Inteligência Artificial

Como garantir a proteção de agentes de IA contra ataques

11/04/2026
Openai - chatgpt deep research
Inteligência Artificial

OpenAI cria “meio-termo” de 100 dólares para o ChatGPT

10/04/2026
Google gemini pastas
Google

Google Gemini ganha pastas inteligentes para arrumar a tua vida

09/04/2026

Últimas notícias

Ipados 26. 5 beta 2

Apple liberta novas betas e prepara terreno para a chegada do RCS

14/04/2026
Foto de elon musk em frente a logo do x

XChat: A nova armadilha de Elon Musk disfarçada de privacidade

14/04/2026
Openai claude

Claude, Codex e Pi já criam os seus próprios agentes autónomos

13/04/2026

Xiaomi lança monitor gaming com modo duplo a preço imbatível

Novo ar condicionado da Xiaomi arrefece a tua casa em 15 segundos

Novo dobrável Huawei Pura X Max já pode ser reservado

Huawei revela design do Pura X Max com ecrã mais largo

Escassez de especialistas expõe as cadeias de abastecimento

Primeiro iPhone dobrável chega em setembro para calar os rumores

Redmi K90 Max chega com ventoinha interna e bateria inesgotável

Teste de resistência ao Nothing Phone 4a Pro revela falha inesperada

O teu Pixel 10 não aguenta o ritmo? O culpado é o Tensor G5

Aproveita estes 7 jogos grátis na Steam antes que acabem

IBM paga milhões para encerrar polémica de contratações

Google News falhou e trocou notícias por apostas no teu feed

Esquece as capas: o novo Oppo F33 sobrevive a quase tudo

Nubia Neo 5 Pro: O novo rei do “gaming” barato já chegou

Como garantir a proteção de agentes de IA contra ataques

Adeus MediaTek: O que esperar do novo CMF Phone (3) Pro

Prepara o bolso: a nova Dji Osmo Pocket 4 já tem data

Techenet LOGO
  • Quem somos
  • Fale connosco, envie a sua pergunta aqui
  • Termos e condições
  • Política de comentários
  • Política de Privacidade
  • Política de Cookies
Sem resultados
Ver todos os resultados
  • Mobile
    • APPLE
    • APPS
    • GOOGLE
    • HUAWEI
    • ONEPLUS
    • SAMSUNG
    • XIAOMI
  • Tech
    • AUTOMÓVEIS
    • MOBILIDADE ELÉTRICA
    • IMAGEM & SOM
    • ENTREVISTAS
  • Gaming
  • IA
  • Opinião
  • Segurança
  • Negócios
    • EMPRESAS
    • CRIPTOMOEDAS
    • MARKETING
  • Mais
    • ARTE E CULTURA
    • DICAS
    • LIFESTYLE
    • DIREITOS COM CAUSA
    • INTERNET
    • GUIAS
    • PROMOÇÕES
    • REVIEWS
    • SUSTENTABILIDADE
    • TUTORIAIS

© 2026 JNews - Premium WordPress news & magazine theme by Jegtheme.