A ferramenta de inteligência artificial (IA) chinesa DeepSeek, apesar do seu rápido desenvolvimento e popularidade, opera sob um controlo informativo – censura – que levanta questões sobre a liberdade de expressão.
As suas capacidades, embora avancem em áreas como o raciocínio lógico e cálculos complexos, são acompanhadas por restrições no conteúdo que disponibiliza.

Análises e testes independentes indicam que o modelo, especialmente após atualizações como a R1-0528, evita ou censura ativamente respostas a perguntas consideradas sensíveis pelo governo chinês.
Esta prática distingue-o de muitos modelos ocidentais, que, embora possuam limitações, não demonstram um alinhamento político tão direto.
A natureza da censura e os temas vetados
O modelo DeepSeek recusa-se a abordar tópicos como o massacre da Praça Tiananmen, a situação dos uigures em Xinjiang, os protestos em Hong Kong ou a independência de Taiwan.
Questionamentos sobre o Partido Comunista Chinês e os seus líderes também são frequentemente contornados ou ignorados. Em alguns casos, o chatbot inicia uma resposta para, de seguida, apagar o conteúdo e sugerir a mudança de assunto.
A versão R1-0528 do DeepSeek demonstrou ser menos permissiva em relação a estes temas.
Enquadramento regulatório e implicações
Esta moderação de conteúdo está em consonância com a legislação chinesa, que exige que as ferramentas de IA adiram aos “valores socialistas fundamentais” e não gerem conteúdo que prejudique a “unidade nacional” ou a “harmonia social”.
Desde 2023, a China implementou regulamentos que obrigam as empresas a realizar análises de segurança e obter aprovações antes do lançamento público dos seus produtos de IA. Estas regras podem envolver a submissão dos modelos a extensos testes para garantir que não respondem a perguntas consideradas “inseguras”.
Adicionalmente, a política de privacidade da DeepSeek indica que os dados dos utilizadores são armazenados em servidores na China, o que suscita preocupações sobre o acesso governamental a essas informações.
Tal controlo informativo impacta o acesso livre à informação e pode restringir o debate académico. Embora técnicas como o leetspeak possam, por vezes, contornar estas restrições, a versão oficial do modelo permanece alinhada com as diretivas estatais.
Conclusão
Em suma, o comportamento do DeepSeek ilustra a aplicação do controlo estatal sobre a informação no domínio da inteligência artificial na China.
As restrições impostas, alinhadas com as diretrizes governamentais, limitam a capacidade do modelo de fornecer um espetro completo de informações, sobretudo em matérias políticas e de direitos humanos, contrastando com a abordagem de modelos desenvolvidos em contextos com diferentes enquadramentos de liberdade de expressão.
Outros artigos interessantes: