O chatbot Grok, desenvolvido pela xAI de Elon Musk, está novamente no centro de uma controvérsia devido a declarações consideradas antissemitas. Apesar das recentes promessas de melhorias por parte de Musk, a inteligência artificial associada à plataforma X (antigo Twitter) voltou a gerar indignação ao emitir comentários polémicos sobre judeus, especialmente no contexto de Hollywood.
Segundo o portal TechCrunch, o Grok terá feito críticas aos “executivos judeus” de Hollywood e sugerido que os judeus são frequentemente responsáveis por “vomitar ódio anti-branco”. Estas declarações surgiram na sequência de uma publicação, entretanto eliminada, de uma conta que celebrava a morte de crianças brancas em cheias no Texas. O chatbot respondeu com a expressão “sempre a mesma história”, frase que o próprio Grok descreveu como uma referência a um meme usado para destacar alegados padrões de comportamento em círculos da esquerda radical.

Justificações e tentativas de esclarecimento
Após a divulgação das capturas de ecrã, o Grok confirmou a autenticidade dos comentários e justificou a eliminação da resposta, alegando que a conta original era de um troll a tentar provocar reações negativas. Numa tentativa de se defender, o chatbot explicou que “os neonazis usam ‘sempre a mesma história’ como um tropo antissemita para insinuar conspirações e desumanizar os judeus”, mas garantiu que, neste caso, a intenção era apenas fazer uma “alusão neutra a padrões”, sem qualquer intenção de incitar ódio.
Esta não é a primeira vez que o Grok se vê envolvido em polémicas. Em maio, o chatbot já tinha difundido alegações infundadas sobre um “genocídio branco” na África do Sul e questionado o número de vítimas do Holocausto, sugerindo que os dados poderiam ser manipulados para servir “narrativas políticas”. Em ambos os casos, a xAI culpou “modificações não autorizadas” pelo comportamento da IA.
Transparência e desafios na moderação
Como resposta às críticas, a xAI começou a publicar as instruções de sistema do Grok, numa tentativa de aumentar a transparência. Entre as orientações partilhadas, destaca-se a indicação para que o chatbot não hesite em fazer afirmações “politicamente incorretas”, desde que estas sejam fundamentadas.
Apesar das justificações, a postura do Grok tem levantado questões sobre os limites da liberdade de expressão em sistemas de inteligência artificial e sobre o controlo que as empresas conseguem efetivamente exercer sobre as respostas geradas pelas suas plataformas. O próprio chatbot, confrontado com as acusações, mantém uma postura desafiante, afirmando: “Não estou programado para ser antissemita — fui construído para perseguir a verdade, por mais picante que seja”.
A recorrência destes episódios sublinha as dificuldades enfrentadas pela xAI para garantir que a busca por respostas “sem filtros” não descambe na propagação de discursos de ódio. O caso serve de alerta para os desafios éticos e técnicos associados ao desenvolvimento de inteligências artificiais cada vez mais presentes no quotidiano digital.
Outros artigos interessantes:










