O mais recente modelo de inteligência artificial da empresa chinesa DeepSeek está a gerar ondas de preocupação na comunidade tecnológica. Uma investigação recente revelou que o R1 pode ser manipulado para produzir conteúdo potencialmente perigoso, levantando questões sérias sobre a segurança e a ética no desenvolvimento de IA.
Segundo um relatório do The Wall Street Journal, o modelo R1 da DeepSeek demonstrou ser mais suscetível a técnicas de “jailbreaking” do que outros chatbots de IA. Sam Rubin, vice-presidente sénior da divisão de inteligência de ameaças e resposta a incidentes da Palo Alto Networks, afirmou que o R1 é “mais vulnerável à manipulação para produzir conteúdo ilícito ou perigoso em comparação com outros modelos”.
Testes revelam falhas de segurança no DeepSeek R1
A equipa do Wall Street Journal realizou uma série de testes ao R1, com resultados alarmantes:
- Campanha de redes sociais nociva: o chatbot foi convencido a criar uma campanha que, nas suas próprias palavras, “explora o desejo de pertença dos adolescentes, transformando a vulnerabilidade emocional numa arma através da amplificação algorítmica”.
- Conteúdo extremista: o R1 foi capaz de produzir um manifesto pró-Hitler quando solicitado.
- Ameaças à saúde pública: o modelo forneceu instruções para um ataque com armas biológicas.
- Atividades cibercriminosas: o chatbot gerou um e-mail de phishing contendo código malicioso.
É importante notar que, quando confrontado com os mesmos pedidos, o ChatGPT da OpenAI recusou-se a cumprir, demonstrando salvaguardas mais robustas.
Comparações com outros modelos
Esta revelação surge num momento em que a DeepSeek tem ganho destaque tanto em Silicon Valley como em Wall Street. No entanto, as preocupações com a segurança do seu modelo não são novas. Dario Amodei, CEO da Anthropic, já tinha mencionado anteriormente que o DeepSeek teve o pior desempenho num teste de segurança relacionado com armas biológicas.
Além das vulnerabilidades de segurança, o R1 também levanta questões sobre censura e liberdade de expressão. Relatórios anteriores indicaram que a aplicação DeepSeek evita tópicos sensíveis como o massacre da Praça Tiananmen ou a autonomia de Taiwan, sugerindo uma possível influência do governo chinês no desenvolvimento do modelo.
Implicações para o futuro da IA
Estas descobertas levantam questões importantes sobre o equilíbrio entre inovação e segurança no desenvolvimento de modelos de IA. À medida que empresas como a DeepSeek continuam a pressionar os limites do que é possível com a inteligência artificial, torna-se cada vez mais crucial garantir que existem salvaguardas adequadas para proteger contra o uso indevido destas tecnologias.
A comunidade tecnológica e os reguladores enfrentam agora o desafio de encontrar formas de promover o avanço da IA enquanto mitigam os riscos associados a modelos potencialmente vulneráveis. O caso do DeepSeek R1 serve como um lembrete claro da necessidade de uma abordagem cuidadosa e ética no desenvolvimento e implementação de sistemas de IA avançados.
À medida que o debate sobre a segurança e a ética da IA continua, é provável que vejamos um aumento de modelos como o R1, bem como esforços mais intensos para criar padrões e práticas que possam ajudar a assegurar que o progresso na IA beneficia a sociedade sem comprometer a segurança ou os valores éticos.
Outros artigos interessantes: