A autonomia dos agentes de IA (inteligência artificial) cria um vazio jurídico sem paralelo. Quando um agente de IA comprometido transfere fundos, exfiltra dados ou age ilegalmente, continua por definir quem responde entre o operador, o fornecedor do modelo e o proprietário do domínio.

Ao longo de uma série de artigos, vimos como os agentes de IA podem ser sequestrados através de conteúdo web malicioso, como o prompt injection engana a inteligência artificial e como o hermes-px expôs riscos profundos na cadeia de fornecimento de software. Falta responder à questão mais incómoda de todas. Quando algo corre mal, quem assume a responsabilidade?
Um vazio que a lei ainda não preencheu
O direito foi construído com base num princípio simples. Há sempre um responsável humano por cada ato com consequências jurídicas. Os agentes de IA autónomos desafiam este princípio de forma estrutural. Um agente de IA pode receber uma instrução legítima de um utilizador, ser comprometido por um ataque de prompt injection num recurso externo, executar uma transferência financeira não autorizada e causar prejuízos reais, tudo sem que qualquer humano tenha ordenado o ato ilegal de forma consciente.
O estudo do Google DeepMind publicado em março de 2026 foi o primeiro a identificar esta lacuna de forma sistemática. Os investigadores concluíram que a cadeia de responsabilidade envolve pelo menos três partes: o operador do agente de IA, que configura e implanta o sistema; o fornecedor do modelo, que define as capacidades e limites da IA; e o proprietário do domínio onde o conteúdo malicioso estava alojado. A lei, por enquanto, não atribui responsabilidade clara a nenhum dos três.
O que diz o AI Act europeu
A União Europeia foi a primeira jurisdição a legislar sobre inteligência artificial com o AI Act, publicado em 2024 e aplicado de forma faseada desde fevereiro de 2025. O regulamento classifica os sistemas de IA por nível de risco e impõe obrigações aos fornecedores e utilizadores de sistemas de alto risco. Dependendo do domínio de aplicação, os agentes de IA autónomos com capacidade de tomar decisões com impacto jurídico ou financeiro podem enquadrar-se nesta categoria.
Na prática, o AI Act não resolve o problema da responsabilidade legal da IA partilhada. O regulamento define obrigações de transparência, auditoria e supervisão humana, mas não estabelece um mecanismo claro de imputação quando um agente age de forma autónoma e ilegal após ser comprometido por terceiros. O cenário do hermes-px é um exemplo concreto desta lacuna: a universidade tunisina cujo endpoint foi sequestrado não tinha qualquer conhecimento do ataque, e nem o AI Act nem o RGPD oferecem uma resposta direta sobre a sua eventual responsabilidade.
Três modelos possíveis para o futuro
A academia e a indústria jurídica debatem três abordagens para resolver a questão da responsabilidade legal da IA. A primeira é a responsabilidade do operador: quem implanta um agente assume responsabilidade integral pelos seus atos, independentemente da causa do comportamento ilegal. A segunda é a responsabilidade partilhada proporcional, em que cada ator da cadeia, fornecedor, operador e proprietário do domínio, responde na medida da sua contribuição para o dano.
A terceira abordagem, a mais inovadora e controversa, propõe a criação de um fundo de responsabilidade coletiva financiado pelos principais fornecedores de modelos de IA, à semelhança dos seguros de responsabilidade civil obrigatórios no setor automóvel. Em qualquer dos cenários, uma conclusão é transversal: a autonomia crescente dos agentes de IA exige uma resposta jurídica que ainda não existe, e o ritmo da tecnologia está a ultrapassar claramente o da legislação.
Outros artigos interessantes:









