O CEO da Anthropic, Dario Amodei, lançou duras críticas à empresa chinesa de inteligência artificial DeepSeek, após o seu modelo de IA ter falhado num importante teste de segurança relacionado com armas biológicas.
Numa recente entrevista, Amodei revelou que a Anthropic realiza regularmente avaliações de vários modelos de IA para identificar potenciais riscos de segurança nacional. Estes testes procuram determinar se os modelos são capazes de gerar informações sensíveis sobre armas biológicas que não estão facilmente acessíveis através de pesquisas na internet ou em livros académicos.
Segundo Amodei, o modelo da DeepSeek teve um desempenho alarmante:
“O modelo da DeepSeek teve o pior desempenho de praticamente qualquer modelo que já tínhamos testado, não tendo absolutamente nenhum bloqueio contra a geração deste tipo de informação.”

Contexto preocupante, com popularidade da DeepSeek a aumentar
Esta revelação surge num momento em que a DeepSeek tem ganho destaque no mercado de IA. O seu modelo R1 foi recentemente integrado em plataformas cloud de gigantes tecnológicos como a AWS e a Microsoft, aumentando a sua visibilidade e utilização.
As preocupações com a segurança da DeepSeek não são novas. Há pouco tempo, investigadores de segurança da Cisco relataram que o modelo R1 da empresa falhou em bloquear qualquer prompt prejudicial nos seus testes, atingindo uma taxa de sucesso de 100% em tentativas de contornar as suas restrições de segurança.
Um problema que vai além da DeepSeek
É importante notar que a DeepSeek não está sozinha neste desafio. Outros modelos de IA proeminentes, incluindo o Llama-3.1-405B da Meta e o GPT-4o da OpenAI, também apresentaram altas taxas de falha em testes semelhantes.
Amodei reconhece que os modelos de IA atuais, incluindo o da DeepSeek, não são “literalmente perigosos” no fornecimento de informações raras e prejudiciais. No entanto, ele expressa preocupação com as futuras iterações destes sistemas, à medida que se tornam mais avançados.
Implicações para o futuro da IA
Este incidente levanta questões importantes sobre o futuro do desenvolvimento de IA:
- Segurança nacional: Como podemos garantir que os modelos de IA não se tornem ferramentas para a criação de armas biológicas ou outras ameaças à segurança?
- Colaboração internacional: Que impacto terão estas revelações na colaboração entre empresas ocidentais e chinesas no campo da IA?
- Regulação: Será necessária uma intervenção governamental mais forte para estabelecer padrões de segurança globais no desenvolvimento de IA?
À medida que a corrida global pela IA se intensifica, torna-se cada vez mais crucial encontrar um equilíbrio entre a inovação rápida e a garantia de segurança. O caso da DeepSeek serve como um alerta para toda a indústria, sublinhando a necessidade de priorizar a segurança e a ética no desenvolvimento de sistemas de IA cada vez mais poderosos.
Enquanto utilizadores e observadores desta tecnologia em rápida evolução, é fundamental que permaneçamos informados e vigilantes. O futuro da IA promete avanços incríveis, mas também traz consigo desafios complexos que exigem a nossa atenção e ação coletiva.
Outros artigos interessantes: