A guerra pela supremacia na Inteligência Artificial acaba de ganhar um novo e controverso capítulo que ameaça agravar as tensões tecnológicas entre os Estados Unidos e a China. A Anthropic, empresa norte-americana responsável pelo desenvolvimento da avançada família de modelos de linguagem Claude, lançou uma acusação pública sem precedentes contra três laboratórios chineses de IA de alto perfil: a DeepSeek, a Moonshot AI e a MiniMax. O centro da polémica não é o desenvolvimento de uma tecnologia superior por via tradicional, mas sim a alegada extração não autorizada e à escala industrial dos dados e do raciocínio do Claude para treinar os sistemas destas rivais.
Segundo as alegações detalhadas pela Anthropic, as empresas chinesas não se limitaram a fazer perguntas casuais ao seu sistema de forma orgânica. O que ocorreu foi uma operação orquestrada e agressiva que envolveu a criação de dezenas de milhares de contas fraudulentas na plataforma. Estas contas automatizadas foram utilizadas de forma coordenada para gerar milhões de conversas com o Claude, contornando ativamente as restrições regionais de acesso que a empresa impõe.
O objetivo principal desta manobra não era a utilização convencional do chatbot para assistência diária, mas sim uma mineração de dados sistemática. Os atacantes procuravam extrair os intrincados processos de raciocínio lógico, as capacidades avançadas de escrita de código informático e outras respostas complexas geradas pelo Claude, criando assim uma base de dados gigantesca e valiosa construída à custa da engenharia do modelo americano.

O processo de ‘Destilação’: da academia à controvérsia ética
A técnica que se encontra no centro desta acusação é conhecida na indústria como “destilação” (distillation). Na sua essência, a destilação não é considerada uma prática inerentemente maliciosa ou incomum. Trata-se de um método padrão na área da aprendizagem de máquina onde os outputs (as respostas) de um modelo maior, mais complexo e caro (o modelo “professor”, neste caso o Claude) são usados para treinar e afinar um modelo menor, mais rápido e mais barato (o modelo “aluno”).
A grande indignação da Anthropic reside na forma furtiva e não autorizada como este processo foi executado. Em vez de estabelecerem uma parceria transparente ou de procurarem um acordo de licenciamento formal e financeiro, a extração massiva violou frontalmente os termos de serviço da empresa. Esta atitude configura o que muitos especialistas classificam como uma apropriação indevida de propriedade intelectual à escala global.
A questão da segurança e o silêncio chinês
Até ao momento presente, nem a DeepSeek, nem a Moonshot AI, nem a MiniMax emitiram qualquer admissão pública de que tenham utilizado os dados recolhidos do Claude para treinar as versões finais dos seus modelos de IA que estão atualmente disponíveis no mercado. As fortes acusações baseiam-se inteiramente nos registos e sistemas de deteção interna da própria Anthropic, sendo que ainda falta uma verificação independente robusta sobre os dados de treino das empresas chinesas.
A gravidade da situação, contudo, transcende o mero roubo corporativo ou a infração de direitos de autor, entrando profundamente no domínio da segurança global e ética da Inteligência Artificial. A Anthropic alerta repetidamente que, quando um modelo é treinado a partir dos dados de outro através deste método furtivo, corre o sério risco de herdar capacidades avançadas impressionantes sem incorporar, em simultâneo, os essenciais mecanismos de segurança e restrições (guardrails) que o programador original desenhou e testou. Isto pode resultar em sistemas imprevisíveis a operar sem limitações éticas no mercado.
Uma nova frente na guerra tecnológica
A escalada deste conflito insere-se num panorama muito mais vasto de intensa rivalidade geopolítica. A resposta da Anthropic não se fará sentir exclusivamente em alertas públicos; a empresa norte-americana já anunciou estar a desenvolver ativamente medidas defensivas robustas para detetar algoritmicamente e bloquear de imediato estes padrões de extração em massa.
Simultaneamente, a empresa declarou o seu apoio direto ao endurecimento dos controlos de exportação de chips de IA avançados aplicados pelo governo dos EUA. O argumento central é que, ao restringir rigidamente o acesso a hardware de ponta, os Estados Unidos podem limitar a capacidade física e computacional destes laboratórios estrangeiros conduzirem campanhas de mineração e treino furtivo a esta escala maciça, fundindo assim as preocupações de segurança cibernética com as políticas comerciais internacionais.
Outros artigos interessantes:










