A inteligência artificial generativa deu-nos um poder que, até há pouco tempo, pertencia ao domínio da ficção científica: a capacidade de “ressuscitar” os mortos. Com a nova e revolucionária plataforma de vídeo Sora, da OpenAI, os utilizadores começaram a criar e a partilhar vídeos realistas de figuras históricas, desde Isaac Newton a Michael Jackson. O que começou como uma experiência fascinante, rapidamente descarrilou para o território do desrespeito.
Depois de vários utilizadores terem criado e partilhado vídeos ofensivos e trocistas de Martin Luther King Jr., a OpenAI, a empresa por trás da tecnologia, foi forçada a intervir. Numa decisão que marca um dos primeiros grandes confrontos entre a liberdade da IA generativa e a decência humana, a empresa anunciou que pausou temporariamente a capacidade de gerar vídeos do icónico líder dos direitos civis.

A linha vermelha da decência: o que aconteceu?
A polémica explodiu quando começaram a circular nas redes sociais, como o TikTok e o YouTube, vídeos gerados por IA que retratavam o Dr. King de formas profundamente desrespeitosas. Os relatos indicam que alguns destes vídeos mostravam a figura histórica a fazer sons de animais ou a lutar com Malcolm X.
A reação foi imediata e contundente, culminando num apelo direto da Dra. Bernice King, a filha de Martin Luther King Jr., para que as pessoas parassem de criar e de partilhar estes clips. O seu pedido ecoou o de outras famílias de figuras públicas, como a da filha de Robin Williams, que já tinha expressado a sua angústia perante as recriações deepfake do seu falecido pai.
Confrontada com uma crescente onda de indignação e com um pedido formal por parte da família do Dr. King, a OpenAI tomou a decisão de intervir.
A resposta da OpenAI: um passo atrás, mas um passo necessário
Num comunicado, a OpenAI reconheceu a complexidade da situação. A empresa afirmou que, embora existam “fortes interesses de liberdade de expressão na representação de figuras históricas”, acredita que “as figuras públicas e as suas famílias devem, em última análise, ter o controlo sobre a forma como a sua imagem é utilizada”.
Como resultado, a empresa não só pausou a geração de vídeos do Dr. King, como também anunciou que está a criar um novo sistema. Este sistema permitirá que os representantes autorizados ou os herdeiros de uma figura pública possam solicitar à OpenAI que restrinja o uso da sua imagem na plataforma Sora.
O dilema do “opt-out”: a tecnologia primeiro, a ética depois?
Apesar de ser um passo na direção certa, a abordagem da OpenAI expõe um problema fundamental na filosofia de desenvolvimento de muitas empresas de IA, a do “opt-out”.
O que é que isto significa? Significa que, por defeito, a IA pode ser usada para recriar qualquer pessoa, a menos que os detentores dos direitos (neste caso, a família) peçam ativamente para serem excluídos. Esta abordagem coloca um fardo enorme sobre as famílias e os criadores de conteúdo, que são forçados a policiar constantemente a plataforma em busca de abusos e a submeter pedidos de remoção, em vez de a empresa pedir permissão à partida (um sistema de “opt-in”).
Este caso é um exemplo paradigmático da cultura de “lançar primeiro, resolver os problemas depois” que domina o mundo da tecnologia. A OpenAI lançou uma ferramenta incrivelmente poderosa sem ter salvaguardas éticas suficientemente robustas, e agora está a correr para apagar os fogos que ela própria ajudou a criar.
A empresa já confirmou que está a trabalhar em novas políticas de moderação mais apertadas para o Sora e em ferramentas que darão mais controlo aos detentores de direitos de autor e às famílias. No entanto, este incidente serve de alerta. A capacidade de recriar qualquer pessoa, viva ou morta, com um realismo assustador já não é uma fantasia. É uma realidade. E, como o caso de Martin Luther King Jr. demonstra de forma dolorosa, a nossa sociedade ainda está muito longe de estar preparada para as suas consequências. Este é apenas o começo de uma longa e difícil conversa sobre as regras da nossa nova realidade sintética.
Outros artigos interessantes:










