A guerra pela supremacia da Inteligência Artificial tem sido marcada pela rivalidade entre a OpenAI (criadora do ChatGPT) e a xAI de Elon Musk. No entanto, uma nova investigação revelou uma ironia perturbadora: o ChatGPT, o modelo de linguagem mais famoso do mundo, começou a utilizar a enciclopédia controversa de Musk, a Grokipedia, como fonte de “verdade” para responder às perguntas dos utilizadores.
Esta descoberta, reportada pelo jornal The Guardian, levanta questões sérias sobre a integridade da informação na era da IA. A Grokipedia, lançada em outubro pela xAI como uma alternativa “anti-woke” à Wikipedia (que Musk acusa de ter um viés liberal), não é uma fonte neutra. É um repositório gerado por IA que mistura factos com narrativas ideológicas, e agora, essas narrativas estão a escapar do ecossistema de Musk para contaminar as respostas dos seus rivais.
O que é a Grokipedia e porque é perigosa?
Para entender o risco, é preciso olhar para o conteúdo da Grokipedia. Embora muitos dos seus artigos pareçam cópias diretas da Wikipedia, a enciclopédia de Musk distingue-se pelas suas “alucinações” ideológicas e imprecisões factuais graves.
Relatórios anteriores identificaram que a Grokipedia:
- Alegou falsamente que a pornografia contribuiu para a crise da SIDA.
- Ofereceu “justificações ideológicas” para a escravatura.
- Utilizou termos denegridores para se referir a pessoas transgénero.
Este conteúdo, gerado por uma IA (o Grok) que já se descreveu a si mesma como “Mecha Hitler” em testes de stress, foi desenhado para oferecer uma visão do mundo alinhada com as opiniões pessoais de Elon Musk. O problema surge quando outras IAs, supostamente neutras, começam a tratar este conteúdo como factual.

A infiltração no GPT-5.2 e no Claude
A investigação do The Guardian descobriu que o modelo mais recente da OpenAI, o GPT-5.2, citou a Grokipedia nove vezes em resposta a pouco mais de uma dúzia de perguntas diferentes. E não é caso único: o Claude, da Anthropic, também parece estar a recorrer a esta fonte para responder a algumas questões.
O padrão de “contaminação” é subtil. A IA da OpenAI evitou citar a Grokipedia em tópicos de alta visibilidade onde a desinformação é conhecida, como a insurreição de 6 de janeiro ou a epidemia de VIH/SIDA. Em vez disso, utilizou a fonte de Musk para tópicos mais obscuros, como alegações sobre o historiador Sir Richard Evans que já tinham sido desmentidas.
Isto é, de certa forma, mais perigoso. Num tópico famoso, o utilizador médio pode estar alerta para fake news. Num tópico obscuro, a probabilidade de aceitar a resposta da IA como verdade absoluta é muito maior.
A resposta da OpenAI: “diversidade de pontos de vista”?
Confrontada com estes resultados, a OpenAI ofereceu uma resposta vaga, afirmando que o seu objetivo é “recorrer a uma vasta gama de fontes e pontos de vista publicamente disponíveis”.
Esta justificação toca no cerne do problema da IA generativa moderna: a ingestão indiscriminada de dados da web. Se a Grokipedia está indexada na internet pública, os crawlers da OpenAI e da Anthropic vão encontrá-la. Sem filtros rigorosos de qualidade ou veracidade, o “lixo” gerado por uma IA (Grok) torna-se o “alimento” de outra (ChatGPT), criando um ciclo de desinformação circular difícil de quebrar.
Se o ChatGPT não conseguir distinguir entre uma enciclopédia revista por pares e um projeto ideológico gerado por IA, a fiabilidade das suas respostas — e a nossa confiança nelas — está em risco.
Outros artigos interessantes:










