Se tens acompanhado a corrida louca pelo domínio da Inteligência Artificial, provavelmente já ouviste falar da Anthropic. A empresa criadora do modelo Claude sempre se posicionou como a alternativa ética e responsável no mercado, sendo frequentemente vista como o “porto seguro” num oceano de desenvolvimento tecnológico desenfreado. Eram conhecidos como os “bons da fita” que priorizavam a segurança humana acima dos lucros e da velocidade. No entanto, as coisas acabam de sofrer uma reviravolta bastante preocupante. A Anthropic decidiu alterar drasticamente a sua famosa política de segurança, e a mensagem que isto passa para o resto da indústria não é nada animadora.
A antiga promessa de ferro: parar tudo se fosse preciso
Para entenderes a gravidade desta mudança, precisas primeiro de saber como as coisas funcionavam na empresa. Em 2023, a Anthropic estabeleceu aquele que foi unanimemente considerado o “padrão de ouro” da indústria: a Política de Escalonamento Responsável (RSP – Responsible Scaling Policy). Esta política não era apenas um documento de boas intenções para ficar bem nas notícias; era uma promessa séria e vinculativa. A empresa comprometeu-se a carregar num “botão de paragem de emergência” e interromper totalmente o treino e desenvolvimento dos seus modelos de IA caso as capacidades das máquinas superassem a capacidade da equipa para provar que elas eram seguras.
Os alertas vermelhos que fariam disparar esta paragem eram assustadores, mas muito reais no contexto da evolução tecnológica. A Anthropic prometia fechar a torneira se a sua IA começasse a mostrar capacidades para:
- Ajudar na criação ou lançamento de armas químicas, biológicas ou nucleares.
- Melhorar o seu próprio código de forma excessiva e autónoma.
- Auxiliar ativamente na orquestração de ciberataques complexos.
- Agir sem intervenção humana, como tentar “escapar” ativamente dos seus ambientes e servidores para evitar ser desligada.
O mais impressionante no meio de tudo isto? A marca assumiu o compromisso de que iria parar o desenvolvimento mesmo que isso significasse ser ultrapassada financeiramente e tecnologicamente pelos seus maiores rivais de mercado. Foi uma posição incrivelmente ousada num setor onde todos pareciam acelerar a fundo.

A versão 3.0: a vitória da concorrência sobre a cautela
Mas chegamos agora a 2026, e a dura realidade do mercado parece ter falado mais alto do que os ideais. A recém-anunciada versão 3.0 do RSP suavizou significativamente todas estas regras rígidas.
A partir de agora, a Anthropic afirma que só irá pausar o desenvolvimento da sua IA se acreditar que já tem uma vantagem técnica “significativa” sobre a concorrência. A promessa irredutível de parar os servidores foi silenciosamente rasgada e substituída por uma promessa muito mais vaga e flexível de “maior transparência” sobre se estão ou não a cumprir os seus objetivos de segurança. A empresa compromete-se apenas a tentar igualar ou exceder a segurança dos seus concorrentes diretos, como a OpenAI. Na prática, aquela promessa heroica de segurança incondicional evaporou-se no ar.
O impacto na indústria e o fim da ilusão
Infelizmente, este recuo representa um passo gigante na direção errada para todo o ecossistema tecnológico. Como a Anthropic era a principal defensora e a referência absoluta para barreiras de segurança apertadas, esta mudança baixa drasticamente o teto de exigência para toda a gente. Este passo envia uma mensagem muito clara e perigosa a outras empresas com táticas mais agressivas: quando o dinheiro e a pressão dos investidores apertam, a segurança passa inevitavelmente para o banco de trás, e a inovação a qualquer custo senta-se ao volante.
É fácil perceberes o porquê desta decisão drástica. A pressão para fazer com que o Claude consiga apanhar e superar as novas funcionalidades do ChatGPT é imensa, e ninguém quer ficar a perder numa corrida que já vale dezenas de milhares de milhões de dólares.
No fim de contas, fica cada vez mais evidente que não podemos depender exclusivamente da boa vontade corporativa ou das promessas voluntárias das empresas tecnológicas para nos protegerem dos riscos associados à inteligência artificial. Se até a empresa que fez da segurança a sua principal imagem de marca está agora a ceder à pressão da concorrência, a ideia de uma autorregulação eficaz caiu oficialmente por terra. Para evitar cenários complicados no futuro, toda a indústria e os governos terão de se unir para desenhar linhas vermelhas na lei, e não apenas em memorandos internos que podem ser apagados a qualquer momento.
Outros artigos interessantes:










