Se acompanhas o mundo da tecnologia, certamente já reparaste que a forma como interagimos com a inteligência artificial está a mudar a um ritmo alucinante. Há bem pouco tempo, o grande fascínio era ter um chatbot que respondia a perguntas no ecrã do computador. Hoje, a grande tendência dá pelo nome de “agentes de IA”. Estes agentes não se limitam a conversar; eles executam ações reais. Podem organizar os teus ficheiros, limpar a tua caixa de correio eletrónico ou até interagir com o sistema operativo.
Empresas gigantes, como a Microsoft, estão a tentar integrar estes agentes em todo o lado. A ideia inicial dos programadores era criar hierarquias complexas, onde dezenas de agentes trabalhavam em equipa, cada um com uma função rigidamente definida por um humano. Contudo, os modelos de linguagem de grande escala (LLM) mais recentes, como o Claude, o Codex e o Pi, evoluíram tão depressa que acabaram de deitar por terra essa estratégia tradicional.
O problema da multiplicação de erros em equipas artificiais
Construir um sistema informático em grande escala é um desafio monumental, especialmente quando dependes de inteligência artificial. Como bem sabemos, estes modelos têm a tendência para “alucinar”, inventando factos ou apresentando dados incorretos com uma confiança inabalável.
Quando colocas vários agentes a trabalhar em cadeia, onde o resultado de um é a informação de entrada do outro, este problema ganha proporções catastróficas. Um estudo conduzido pela DeepMind da Google em 2025 testou 180 configurações diferentes de arquiteturas multiagente. Os resultados foram assustadores: redes de agentes sem uma estrutura híbrida adequada amplificaram os erros em 17,2 vezes quando comparadas com um único agente a trabalhar sozinho.
A matemática é implacável. Se um agente tem 99% de precisão, aquele 1% de erro vai contaminar todo o processo seguinte. Além disso, a investigação demonstrou que adicionar mais de quatro agentes a uma tarefa não trazia qualquer benefício, pois o esforço computacional exigido pelo processador para coordenar a comunicação entre eles anulava qualquer ganho de eficiência.

A descoberta que abalou a hierarquia tradicional
Foi neste cenário de incerteza que surgiu um novo e extenso estudo científico que testou 25 mil tarefas diferentes, utilizando oito modelos de IA e variando entre quatro a 256 agentes em simultâneo. A conclusão deste documento deitou por terra a ideia de que os humanos precisam de desenhar organogramas complexos para as máquinas.
Os investigadores descobriram que os modelos de IA mais avançados funcionam muito melhor quando se organizam a si próprios. A abordagem vencedora foi um modelo híbrido: o humano define a missão geral e as regras básicas, mas a IA tem a liberdade de criar os seus próprios subagentes e distribuir as tarefas como achar melhor.
Durante estes testes exaustivos, ficaram evidentes algumas diferenças cruciais entre os vários “cérebros” digitais disponíveis no mercado:
- Modelos menos capazes (como o GLM-5) exigem regras estritas e papéis bem definidos por humanos para não se perderem na tarefa.
- Modelos de topo (como o Claude Sonnet 4.6 e o DeepSeek v3.2) brilham quando recebem apenas um objetivo geral, organizando a sua própria força de trabalho digital de forma autónoma.
- Modelos de código aberto conseguem atingir 95% do desempenho das opções fechadas e pagas, provando que é possível reduzir custos drásticos sem sacrificar a qualidade do trabalho final.
O impacto prático no teu dia a dia
Para o utilizador comum, esta mudança de paradigma altera completamente a forma como vamos usar a tecnologia a curto prazo. Em vez de teres de comprar ou configurar dezenas de pequenas aplicações ou agentes específicos para cada tarefa, a interação fica muito mais simples e natural.
Imagina que precisas de organizar um evento complexo. Em vez de programares um agente para procurar voos, outro para ler os teus emails e outro para analisar faturas através da câmara do telemóvel, vais simplesmente dar uma ordem geral ao teu assistente principal. Esse assistente, dotado de um modelo avançado, vai compreender a missão, criar temporariamente os seus próprios subagentes especializados, distribuir o trabalho entre eles e entregar-te o resultado final.
Esta capacidade de auto-organização prova que as máquinas estão a ultrapassar as caixas rígidas onde os programadores as tentaram colocar. Ao dar-lhes o “quê” e o “porquê”, e deixando o “como” ao seu critério, a inteligência artificial torna-se não apenas mais rápida, mas substancialmente mais precisa e útil para as nossas rotinas diárias.
Outros artigos interessantes:









