O escândalo rebentou e a gravidade é difícil de ignorar. Imagina que entras numa loja oficial de aplicações, procuras por uma ferramenta de edição e o algoritmo decide sugerir-te, de forma proativa, aplicações desenhadas para criar pornografia não consensual. É exatamente isto que está a acontecer no ecossistema da Apple e da Google. Segundo um relatório detalhado do Tech Transparency Project (TTP), as duas gigantes tecnológicas não estão apenas a falhar na moderação; estão, efetivamente, a lucrar e a promover ferramentas de inteligência artificial que permitem “despir” pessoas reais através de fotografias, as chamadas nudify apps.
A investigação revela um cenário distópico onde a eficácia das equipas de revisão de conteúdos parece ter sido substituída por uma busca cega pelo lucro. O TTP identificou dezenas de aplicações nas lojas oficiais que utilizam IA para processar imagens e remover virtualmente a roupa das vítimas. O aspeto mais chocante? Muitas destas ferramentas estavam classificadas como “E” (Everyone), o que significa que, para o sistema de classificação da Apple e da Google, estas apps são consideradas seguras para crianças.

Não se trata de um erro obscuro escondido num canto da loja. O relatório aponta que estas aplicações surgem em destaque quando utilizadores pesquisam termos como “undress” ou “nudify”. Mais grave ainda: as próprias lojas de aplicações chegaram a apresentar anúncios pagos para este tipo de software nos resultados de pesquisa, colocando ferramentas de criação de deepfakes sexuais à distância de um clique para qualquer utilizador.
Centenas de milhões em downloads e receitas
Os números ajudam a explicar por que razão a limpeza destas plataformas tem sido tão lenta. Estamos a falar de um negócio extremamente lucrativo que floresce sob o olhar complacente de Silicon Valley. De acordo com os dados recolhidos:
- Foram identificadas 18 aplicações deste género na App Store da Apple e 20 no Google Play.
- No total, estas ferramentas já foram descarregadas mais de 483 milhões de vezes.
- As receitas geradas por estas apps ascendem a aproximadamente 122 milhões de dólares.
Como a Apple e a Google retêm uma comissão (geralmente entre 15% a 30%) sobre as compras feitas dentro das aplicações, isto significa que as empresas estão a ganhar milhões diretamente com software que viola as suas próprias políticas internas. É uma contradição flagrante entre o discurso público sobre privacidade e segurança e a realidade das suas folhas de cálculo.
A resposta (tardia) das gigantes tecnológicas
Sempre que confrontadas com estas investigações, as respostas seguem um guião previsível. A Apple confirmou à Bloomberg que removeu 15 das aplicações sinalizadas, enquanto a Google afirmou ter suspendido várias outras. No entanto, o problema é sistémico. Uma das apps citadas, a “Video Face Swap AI: DeepFace”, permitia sobrepor o rosto de uma pessoa real no corpo de atrizes parcialmente despidas e continuava disponível com uma classificação de idade livre para todos.
Este jogo de “gato e rato” mostra que os filtros automáticos de segurança são ineficazes contra a vaga de conteúdos gerados por IA. Enquanto os governos, como o do Reino Unido e dos Estados Unidos, tentam apressar legislação para criminalizar a criação de deepfakes íntimos, as plataformas onde estas ferramentas são distribuídas parecem estar sempre um passo atrás — ou simplesmente a olhar para o lado enquanto o dinheiro entra.
O impacto real num mundo sem filtros
A facilidade com que qualquer pessoa pode aceder a estas ferramentas através de canais oficiais legitima uma prática abusiva. Quando a Apple e a Google “apontam” utilizadores para estas aplicações, estão a facilitar o assédio digital e a criação de conteúdo que pode destruir vidas. A pressão regulatória está a aumentar e a ordem de cessar e desistir enviada pela Procuradoria da Califórnia à rede social X (devido à IA Grok) é apenas o início de uma batalha legal que promete ser longa.
Para ti, que utilizas estas lojas diariamente, fica o aviso: o selo de aprovação de uma App Store já não é garantia de integridade moral ou segurança. O que está em causa não é apenas tecnologia, mas sim a integridade física e psicológica de milhões de pessoas que podem tornar-se vítimas de um algoritmo que, no final do dia, só quer maximizar o tempo de ecrã e as transações financeiras.
Outros artigos interessantes:









