TecheNet
  • Mobile
    • APPLE
    • APPS
    • GOOGLE
    • HUAWEI
    • ONEPLUS
    • SAMSUNG
    • XIAOMI
  • Tech
    • AUTOMÓVEIS
    • MOBILIDADE ELÉTRICA
    • IMAGEM & SOM
    • ENTREVISTAS
  • Gaming
  • IA
  • Opinião
  • Segurança
  • Negócios
    • EMPRESAS
    • CRIPTOMOEDAS
    • MARKETING
  • Mais
    • ARTE E CULTURA
    • DICAS
    • LIFESTYLE
    • DIREITOS COM CAUSA
    • INTERNET
    • GUIAS
    • PROMOÇÕES
    • REVIEWS
    • SUSTENTABILIDADE
    • TUTORIAIS
Sem resultados
Ver todos os resultados
TecheNet
Sem resultados
Ver todos os resultados

Anthropic recua na segurança da IA: o que muda e porque te deves preocupar

Vitor Urbano por Vitor Urbano
26/02/2026
Em Inteligência Artificial

Se tens acompanhado a corrida louca pelo domínio da Inteligência Artificial, provavelmente já ouviste falar da Anthropic. A empresa criadora do modelo Claude sempre se posicionou como a alternativa ética e responsável no mercado, sendo frequentemente vista como o “porto seguro” num oceano de desenvolvimento tecnológico desenfreado. Eram conhecidos como os “bons da fita” que priorizavam a segurança humana acima dos lucros e da velocidade. No entanto, as coisas acabam de sofrer uma reviravolta bastante preocupante. A Anthropic decidiu alterar drasticamente a sua famosa política de segurança, e a mensagem que isto passa para o resto da indústria não é nada animadora.

A antiga promessa de ferro: parar tudo se fosse preciso

Para entenderes a gravidade desta mudança, precisas primeiro de saber como as coisas funcionavam na empresa. Em 2023, a Anthropic estabeleceu aquele que foi unanimemente considerado o “padrão de ouro” da indústria: a Política de Escalonamento Responsável (RSP – Responsible Scaling Policy). Esta política não era apenas um documento de boas intenções para ficar bem nas notícias; era uma promessa séria e vinculativa. A empresa comprometeu-se a carregar num “botão de paragem de emergência” e interromper totalmente o treino e desenvolvimento dos seus modelos de IA caso as capacidades das máquinas superassem a capacidade da equipa para provar que elas eram seguras.

Os alertas vermelhos que fariam disparar esta paragem eram assustadores, mas muito reais no contexto da evolução tecnológica. A Anthropic prometia fechar a torneira se a sua IA começasse a mostrar capacidades para:

  • Ajudar na criação ou lançamento de armas químicas, biológicas ou nucleares.
  • Melhorar o seu próprio código de forma excessiva e autónoma.
  • Auxiliar ativamente na orquestração de ciberataques complexos.
  • Agir sem intervenção humana, como tentar “escapar” ativamente dos seus ambientes e servidores para evitar ser desligada.

O mais impressionante no meio de tudo isto? A marca assumiu o compromisso de que iria parar o desenvolvimento mesmo que isso significasse ser ultrapassada financeiramente e tecnologicamente pelos seus maiores rivais de mercado. Foi uma posição incrivelmente ousada num setor onde todos pareciam acelerar a fundo.

Claude opus 4. 5: novo padrão para engenharia de software

A versão 3.0: a vitória da concorrência sobre a cautela

Mas chegamos agora a 2026, e a dura realidade do mercado parece ter falado mais alto do que os ideais. A recém-anunciada versão 3.0 do RSP suavizou significativamente todas estas regras rígidas.

A partir de agora, a Anthropic afirma que só irá pausar o desenvolvimento da sua IA se acreditar que já tem uma vantagem técnica “significativa” sobre a concorrência. A promessa irredutível de parar os servidores foi silenciosamente rasgada e substituída por uma promessa muito mais vaga e flexível de “maior transparência” sobre se estão ou não a cumprir os seus objetivos de segurança. A empresa compromete-se apenas a tentar igualar ou exceder a segurança dos seus concorrentes diretos, como a OpenAI. Na prática, aquela promessa heroica de segurança incondicional evaporou-se no ar.

O impacto na indústria e o fim da ilusão

Infelizmente, este recuo representa um passo gigante na direção errada para todo o ecossistema tecnológico. Como a Anthropic era a principal defensora e a referência absoluta para barreiras de segurança apertadas, esta mudança baixa drasticamente o teto de exigência para toda a gente. Este passo envia uma mensagem muito clara e perigosa a outras empresas com táticas mais agressivas: quando o dinheiro e a pressão dos investidores apertam, a segurança passa inevitavelmente para o banco de trás, e a inovação a qualquer custo senta-se ao volante.

É fácil perceberes o porquê desta decisão drástica. A pressão para fazer com que o Claude consiga apanhar e superar as novas funcionalidades do ChatGPT é imensa, e ninguém quer ficar a perder numa corrida que já vale dezenas de milhares de milhões de dólares.

No fim de contas, fica cada vez mais evidente que não podemos depender exclusivamente da boa vontade corporativa ou das promessas voluntárias das empresas tecnológicas para nos protegerem dos riscos associados à inteligência artificial. Se até a empresa que fez da segurança a sua principal imagem de marca está agora a ceder à pressão da concorrência, a ideia de uma autorregulação eficaz caiu oficialmente por terra. Para evitar cenários complicados no futuro, toda a indústria e os governos terão de se unir para desenhar linhas vermelhas na lei, e não apenas em memorandos internos que podem ser apagados a qualquer momento.

Outros artigos interessantes:

  • Agarra o novo Samsung Galaxy S26 Ultra com 200€ de desconto na pré-venda
  • Xiaomi 17 Max: bateria de 8.000 mAh e câmara de 200 MP a caminho
  • OnePlus afasta rumores de fim e anuncia o novo topo de gama 15T
PartilhaTweetEnvia
Vitor Urbano

Vitor Urbano

Frequentou a licenciatura de Desporto em Setúbal e atualmente reside na Letónia. Apaixonado por novas tecnologias e fã do "pequeno" Android desde 2009.

Artigos relacionados

Novo modelo operacional de ia da ibm anunciado no think 2026
Inteligência Artificial

Novo modelo operacional de IA da IBM anunciado no Think 2026

09/05/2026
Claude opus 4. 5: novo padrão para engenharia de software
Inteligência Artificial

Acordo com SpaceX: Claude Code duplica os seus limites de uso

08/05/2026
Sam altman - open ai - new york times - chatgpt
Inteligência Artificial

Caos na OpenAI: Ex-diretora expõe as táticas manipuladoras de Sam Altman

08/05/2026
Google escritórios
Google

Conhece o Remy, o agente da Google que vai trabalhar por ti

08/05/2026
Microsoft xbox ai
Microsoft

Microsoft desiste do Copilot na Xbox: os jogadores tinham razão

06/05/2026
Gpt-5. 5 instant, o novo modelo padrão do chatgpt com menos alucinações e memória auditável
Inteligência Artificial

GPT-5.5 Instant é o novo modelo padrão do ChatGPT

06/05/2026

Últimas notícias

Xiaomi hyperos 3 (2)

A Xiaomi não deitou o teu telemóvel antigo para o lixo: nova atualização

10/05/2026
Dexter - resurrection

Dexter: Resurrection temporada 2: tudo o que sabemos sobre o regresso

10/05/2026
Honor 600: câmara de 200mp e bateria de 6. 400mah em portugal

HONOR 600: câmara de 200MP e bateria de 6.400mAh em Portugal

10/05/2026

Lenovo Legion Y70: Fuga revela nova besta gaming com bateria de 8.000 mAh

Novo modelo operacional de IA da IBM anunciado no Think 2026

A IA vai dominar o mundo, mas não como nos filmes

Huawei ultrapassa os 24 milhões de relógios vendidos e ataca com o Watch Fit 5

Huawei Watch Kids X1: segurança e câmaras de topo para o pulso das crianças

DJI Osmo Mobile 8P chega ao mercado com ecrã remoto para criadores a solo

Samsung prepara ecrãs holográficos: o futuro nos teus dedos

Receitas da Fortinet crescem 20% no primeiro trimestre de 2026

Acordo com SpaceX: Claude Code duplica os seus limites de uso

Caos na OpenAI: Ex-diretora expõe as táticas manipuladoras de Sam Altman

Bowers & Wilkins Px8 S2 ganham novos acabamentos premium

A Xiaomi acaba de libertar o OmniVoice e o mundo vai passar a falar a tua língua

Conhece o Remy, o agente da Google que vai trabalhar por ti

Novos Snapdragon: o salto gigante para os telemóveis acessíveis

AirTags seguras: a Energizer criou a bateria que pinta línguas

Mudança radical na Samsung pode baratear os próximos dobráveis

A Google vai dar um “face lift” ao Search Live e tu vais notar a diferença

Techenet LOGO
  • Quem somos
  • Fale connosco
  • Termos e condições
  • Política de comentários
  • Política de Privacidade
  • Política de Cookies
  • O uso de IA no TecheNet
Sem resultados
Ver todos os resultados
  • Mobile
    • APPLE
    • APPS
    • GOOGLE
    • HUAWEI
    • ONEPLUS
    • SAMSUNG
    • XIAOMI
  • Tech
    • AUTOMÓVEIS
    • MOBILIDADE ELÉTRICA
    • IMAGEM & SOM
    • ENTREVISTAS
  • Gaming
  • IA
  • Opinião
  • Segurança
  • Negócios
    • EMPRESAS
    • CRIPTOMOEDAS
    • MARKETING
  • Mais
    • ARTE E CULTURA
    • DICAS
    • LIFESTYLE
    • DIREITOS COM CAUSA
    • INTERNET
    • GUIAS
    • PROMOÇÕES
    • REVIEWS
    • SUSTENTABILIDADE
    • TUTORIAIS

© 2026 JNews - Premium WordPress news & magazine theme by Jegtheme.