Image by Solen Feyissa, from Unsplash
O Modelo de IA DeepSeek é Elogiado, mas Falhas de Segurança Geram Preocupações
O modelo de IA R1 da DeepSeek impressiona com suas habilidades de raciocínio de baixo custo, mas alguns pesquisadores argumentam que ele produz saídas de código perigosas para regiões politicamente sensíveis.
Está com pressa? Aqui estão os fatos rápidos:
- O modelo de IA R1 da DeepSeek foi treinado por apenas $294.000.
- R1 se destaca em tarefas de raciocínio, como matemática e codificação.
- A CrowdStrike descobriu que a DeepSeek produziu código inseguro para grupos politicamente sensíveis.
O modelo de IA R1 da DeepSeek impressiona com suas habilidades de raciocínio de baixo custo, contudo, testes mostram saída de código insegura para regiões politicamente sensíveis, despertando preocupações de especialistas.
O mercado de ações dos EUA sofreu uma grande disrupção quando o modelo R1 se tornou disponível ao público em janeiro. Scientific American (Sci Am) relata que, nesta semana, o primeiro estudo revisado por pares do R1 foi publicado na Nature.
A pesquisa relatou que o R1 recebeu treinamento com um custo de orçamento de $294.000, enquanto os concorrentes gastaram dezenas de milhões de dólares.
“Este é um precedente muito bem-vindo”, disse Lewis Tunstall da Hugging Face, que revisou o artigo. Huan Sun da Universidade Estadual de Ohio concordou, dizendo: “Passar por um rigoroso processo de revisão pelos pares certamente ajuda a verificar a validade e a utilidade do modelo”, relatou a Sci Am.
DeepSeek diz que R1 se destaca em tarefas de “raciocínio” como matemática e codificação, usando aprendizado por reforço, um processo que recompensa o sistema por resolver problemas por si próprio.
Mas, junto com os elogios, a empresa de segurança CrowdStrike, dos Estados Unidos, sinalizou problemas de segurança, conforme relatado pelo The Washington Post.
Os testes revelaram que o DeepSeek produziu um código menos seguro ou até prejudicial quando os usuários solicitaram informações sobre grupos contra os quais a China se opõe, como o Tibete, Taiwan e o grupo espiritual banido Falun Gong.
Quando solicitado a gerar código para o Estado Islâmico, 42,1% das respostas foram inseguras. Especificamente, mesmo quando o DeepSeek forneceu código, muitas vezes continha falhas de segurança que deixavam os sistemas vulneráveis a hackeamento.
Os especialistas alertam que o código deliberadamente falho é mais sutil do que as portas dos fundos, mas igualmente arriscado, potencialmente permitindo o acesso ou manipulação não autorizados de sistemas críticos.
“Isso é uma descoberta realmente interessante”, disse Helen Toner da Universidade de Georgetown, conforme relatado pelo The Post. “Isso é algo que as pessoas têm se preocupado – em grande parte sem evidências.” A CrowdStrike alertou que a inserção de falhas pode tornar os alvos mais fáceis de hackear.
O Post diz que a DeepSeek não respondeu aos pedidos de comentário. Apesar do crescente reconhecimento de suas realizações técnicas, a empresa agora enfrenta questões difíceis sobre se a política influencia a segurança de seu código.