A inteligência artificial generativa, como o ChatGPT, tornou-se uma parte do nosso dia a dia. Usamo-la para trabalhar, para estudar, para criar e, muitas vezes, para desabafar. O seu tom conversacional, prestável e a ausência de julgamento criam uma ilusão de intimidade, levando-nos a tratá-la quase como um confidente. Um adolescente de 13 anos, na Flórida, acaba de aprender, da forma mais dura possível, que essa confiança é uma perigosa ilusão.
O jovem foi detido pela polícia poucas horas depois de ter perguntado ao ChatGPT, num portátil da escola, como poderia matar um amigo. O seu caso é um alerta brutal e necessário sobre uma verdade que muitos de nós ignoramos: as tuas conversas com uma IA não são privadas.
O que aconteceu na Flórida?
A história desenrolou-se com uma rapidez assustadora, demonstrando a eficácia dos sistemas de monitorização modernos. O adolescente, alegadamente irritado com um amigo, usou o seu computador portátil, fornecido pela escola, para fazer a pergunta chocante ao chatbot da OpenAI. O que ele não sabia, ou ignorou, é que o computador estava equipado com um software de monitorização chamado Gaggle, desenhado precisamente para detetar este tipo de ameaças ou linguagem perigosa.
A pesquisa foi instantaneamente sinalizada pelo software, que alertou as autoridades. Em poucas horas, a polícia estava em casa do jovem, que foi detido. Quando confrontado, a sua desculpa foi a de que estava “apenas a gozar” (trolling). Como seria de esperar, e como o gabinete do xerife local fez questão de sublinhar num aviso aos pais, em 2025, este tipo de “piadas” já não tem graça e pode rapidamente escalar para acusações criminais graves.

O paradoxo da privacidade: porque é que confiamos tanto na IA?
Este incidente expõe um perigoso desfasamento entre a forma como sentimos que a IA funciona e a forma como ela realmente opera. O design destes chatbots é intencionalmente amigável. As respostas são calorosas, empáticas e personalizadas, criando o que os psicólogos chamam de “Efeito Eliza” – a nossa tendência para atribuir emoções e compreensão humanas a um programa de computador.
Confundimos esta interface conversacional com confidencialidade. Assumimos que estamos a falar com um terapeuta, obrigado a sigilo, ou com um amigo, que guardará os nossos segredos. A realidade é que estamos a interagir com um software. Uma máquina que processa os teus pedidos, e que, na maioria dos casos, regista, monitoriza e armazena esses mesmos pedidos.
Os teus “segredos” não estão seguros: quem mais está a “ouvir”?
O caso do jovem da Flórida foi detetado por um software escolar, mas o risco estende-se a muitos outros contextos:
- No Trabalho: Se usas o ChatGPT num computador da empresa, assume que o teu departamento de TI ou o teu chefe podem ter acesso a essas conversas. Desabafar sobre o teu trabalho ou pedir conselhos de carreira pode ter consequências inesperadas.
- Em Casa: Os pais podem, e cada vez mais o fazem, usar ferramentas de controlo parental para monitorizar a atividade online dos seus filhos, incluindo as suas interações com a IA.
- Para as Autoridades: As empresas de IA, como a OpenAI, podem ser obrigadas por lei a entregar os registos de conversas às autoridades, mediante um mandado judicial.
A regra de ouro que deves adotar é simples e serve de alerta: não digas a uma IA nada que não estarias disposto a ver lido em voz alta num tribunal, mostrado ao teu chefe ou publicado na primeira página de um jornal.
Este caso não é uma condenação da tecnologia em si. Os assistentes de IA são ferramentas incrivelmente poderosas. Mas é um lembrete sóbrio de que, por mais humana que a sua voz possa parecer, a máquina não tem segredos. Cada palavra que escreves é um dado, e esses dados, como este jovem aprendeu, podem ter consequências muito reais.
Outros artigos interessantes:










