A era da inteligência artificial generativa trouxe-nos ferramentas incríveis, mas também um novo e assustador campo de batalha: a batalha pela nossa confiança no que vemos online. E, esta semana, essa batalha teve um resultado chocante. Um livestream falso, utilizando uma versão de IA do CEO da NVIDIA, Jensen Huang, conseguiu atrair cinco vezes mais espetadores em direto do que a conferência oficial da própria empresa.
Este incidente, que expôs a facilidade com que os deepfakes podem ser usados para enganar o público, ocorreu em simultâneo com o evento oficial da NVIDIA, a GPU Technology Conference (GTC). Enquanto a empresa apresentava as suas inovações reais, o seu avatar digital estava a promover um esquema de criptomoedas a uma audiência muito maior.
O golpe dentro da conferência: o que aconteceu no palco digital?
O facto mais bizarro é que a fraude aconteceu em paralelo com o evento real da NVIDIA. A conferência oficial, onde foram anunciados os mais recentes avanços da empresa, registou um pico de cerca de 20.000 visualizações em direto. No entanto, o livestream falso, que imitava perfeitamente o aspeto e a voz de Jensen Huang, atingiu rapidamente os 100.000 espetadores em direto.
O conteúdo do golpe era tão descarado quanto a sua execução. O avatar de IA falava sobre um “evento de adoção em massa de criptomoedas que se liga diretamente à missão da NVIDIA para acelerar o progresso humano” e pedia aos espetadores para digitalizarem um código QR para “enviarem” criptomoedas para um endereço. É difícil imaginar uma mensagem mais dúbia, mas o facto de ter atraído tantas pessoas é o verdadeiro sinal de alerta.

Porque é que tantas pessoas caíram no golpe?
A eficácia deste esquema não é um acidente, mas sim o resultado de uma “tempestade perfeita” de fatores tecnológicos e psicológicos que tornam os deepfakes cada vez mais convincentes.
O poder do treino de IA sobre Jensen Huang
Jensen Huang é uma figura pública constante no mundo da tecnologia. Ao longo do último ano, ele apresentou várias conferências (quatro GTCs, segundo o artigo) e inúmeros outros eventos. Isto significa que os criadores do deepfake tiveram acesso a uma quantidade enorme de vídeos e áudio da sua imagem e voz reais. Esta abundância de dados permite que os modelos de IA generativa, como o Sora 2 da OpenAI, criem uma réplica digital extremamente convincente, tanto visualmente como no que toca à imitação de voz e maneirismos.
A fadiga da atenção e a promessa de dinheiro fácil
Para além da qualidade do deepfake, há que considerar o contexto do espectador. Num ambiente online onde somos bombardeados por milhares de informações e livestreams, a nossa atenção é um recurso escasso. A promessa de um evento de “adoção em massa de criptomoedas” e a ligação direta à missão da NVIDIA (acelerar o progresso) são iscas poderosas. A ideia de ganhar dinheiro fácil com a empresa mais valiosa do mundo da tecnologia é um chamariz que, infelizmente, funciona para muitos.
O silêncio da NVIDIA e a erosão da confiança
O aspeto mais preocupante desta história é a reação da própria NVIDIA. Até ao momento, a empresa não emitiu qualquer declaração oficial para além das notas do evento real. Isto deixa a audiência numa posição desconfortável: deves acreditar no que a tua perceção te diz (que viste uma fraude óbvia) ou confiar que a empresa está a gerir a situação nos bastidores?
Como o próprio artigo original aponta, se for descoberto que a NVIDIA omitiu factos ou mentiu sobre o que estava a acontecer, o impacto na sua reputação e na confiança do público nas suas ferramentas de IA seria imenso. Para uma empresa que vende a promessa de “acelerar o progresso humano”, ser associada a um esquema de fraude é o pior cenário possível.
O que se segue para o futuro da verdade online?
Este incidente não é um caso isolado. Vimos a OpenAI a lutar com o uso indevido da sua IA Sora para criar conteúdos desrespeitosos, e agora vemos a própria tecnologia a ser usada para fraudes financeiras em larga escala.
A questão que se coloca é: como é que as plataformas de streaming vão conseguir distinguir entre um CEO real e um deepfake convincente? As ferramentas de deteção de IA estão numa corrida armamentista constante contra as ferramentas de criação de IA. E, nesta batalha, quem está a perder é a confiança do utilizador comum.
Embora os números exatos sobre quantas pessoas clicaram no código QR e se alguém perdeu dinheiro ainda sejam desconhecidos, o estrago na perceção está feito. A água está, como o autor do texto sugere, a ficar “mais quente”. O facto de o livestream real não ter sido um evento de anúncios bombásticos (como novas placas gráficas) pode ter contribuído para que os espetadores procurassem mais emoção noutros lados.
Outros artigos interessantes:










