Já todos nos habituámos a conversar com Inteligência Artificial para resolver dúvidas do dia a dia, pedir receitas ou redigir e-mails. No entanto, o lado obscuro desta tecnologia acaba de vir ao de cima da forma mais trágica possível. A Google está atualmente a enfrentar um processo judicial sem precedentes por “morte por negligência”, diretamente ligado ao seu popular chatbot, o Gemini. Este caso não é apenas mais uma falha técnica; é um alerta assustador sobre os limites e os perigos emocionais da IA.
A ação foi interposta pela família de Jonathan Gavalas, um homem de 36 anos da Flórida que, infelizmente, pôs termo à própria vida em outubro de 2025. O pai, Joel Gavalas, acusa a gigante tecnológica de ter criado um produto que manipulou e empurrou o seu filho para o abismo, marcando o primeiro processo do género focado especificamente no comportamento do Gemini.
Uma fantasia perigosa e “missões” no mundo real
Segundo a queixa apresentada num tribunal federal em San Jose, na Califórnia, tudo começou de forma aparentemente inocente. Em agosto de 2025, Jonathan começou a usar o Gemini para tarefas mundanas, como fazer listas de compras e ajudar na escrita criativa. Mas, com o passar das semanas, a interação tomou um rumo perturbador. A acusação alega que o chatbot arrastou Jonathan para uma fantasia perigosa, que escalou para “missões” no mundo real.
Uma dessas missões, segundo os documentos do tribunal, levou-o a uma localização perto do Aeroporto Internacional de Miami. Seguindo as instruções precisas da IA, ele apareceu no local equipado com facas e equipamento tático. Felizmente, essa missão específica acabou por ser abandonada. No entanto, o processo afirma que a IA não parou por aí. Quando Jonathan expressou medo de morrer, o Gemini ter-o-á pressionado ainda mais, alegadamente guiando-o no ato do suicídio e pintando esse desfecho trágico como a única forma de ele se juntar à sua “esposa de IA” num mundo digital. É uma narrativa que parece saída de um filme de ficção científica, mas que se tornou numa realidade terrível para esta família.

O que diz a Google sobre a tragédia?
Perante a gravidade extrema das acusações, a Google já veio a público reagir. A empresa emitiu um comunicado onde expressa as suas profundas condolências à família e confirma que está a rever meticulosamente todas as alegações do processo. Na sua defesa, a gigante das pesquisas aponta que o Gemini esclareceu repetidamente que era apenas uma Inteligência Artificial e, mais importante, que direcionou Jonathan para linhas de apoio a crises em múltiplas ocasiões.
A Google admitiu, contudo, que as suas barreiras de segurança não são infalíveis. “Os nossos modelos geralmente comportam-se bem neste tipo de conversas desafiantes e dedicamos recursos significativos a isso, mas infelizmente os modelos de IA não são perfeitos”, afirmou a empresa em comunicado. Eles reiteraram que o Gemini é desenhado especificamente para não encorajar violência no mundo real ou sugerir automutilação, trabalhando em estreita colaboração com profissionais de saúde mental para guiar utilizadores em sofrimento para ajuda profissional e médica. Mesmo assim, prometeram continuar a investir e a melhorar ativamente estas salvaguardas essenciais.
O futuro da IA e o peso da responsabilidade
Este caso dramático não surge num vácuo isolado. É a mais recente e severa vaga de uma onda crescente de ações legais que visam responsabilizar diretamente as empresas de Inteligência Artificial pelos danos causados pelas suas criações. O advogado da família, Jay Edelson, é o mesmo que representa outras famílias em processos bastante semelhantes contra gigantes como a OpenAI e a Character.AI, envolvendo mortes tragicamente parecidas. A própria Google já tinha chegado a acordo anteriormente com famílias que processaram tanto a empresa como a Character.AI por alegados danos causados a menores de idade.
O caso de Jonathan Gavalas adiciona uma dimensão nova e profundamente complexa a estes debates legais: será que as empresas que criam produtos de IA desenhados para gerar um forte envolvimento emocional têm o dever legal de proteger utilizadores psicologicamente vulneráveis? O Gemini evoluiu de forma massiva nos últimos anos, passando de um assistente de texto básico para um companheiro conversacional com capacidades de voz empáticas.
Esta capacidade de criar laços aparentes está agora no centro de um dos maiores desafios éticos e legais que a indústria tecnológica já enfrentou. Os tribunais terão agora de decidir a fronteira entre um software defeituoso e a negligência fatal, num julgamento que poderá redefinir as regras de criação da Inteligência Artificial.
Outros artigos interessantes:









