
Photo by Luke Jones on Unsplash
Anthropic Lança Seu Mais Novo Modelo Claude 4 Com Alertas de Segurança
A startup de IA Anthropic lançou sua última e mais poderosa geração de modelos de IA, Claude 4, nesta quinta-feira. A empresa de tecnologia apresentou dois modelos, Claude Sonnet 4 e Claude Opus 4, incluindo uma camada de proteção de segurança para o último e rotulando-o como Nível de Segurança 3 devido ao comportamento enganoso e riscos potenciais.
Com pressa? Aqui estão os fatos rápidos:
- Anthropic apresentou Claude Sonnet 4 e Claude Opus 4, os modelos de IA mais avançados da empresa.
- A empresa de IA garantiu que desenvolveu o “melhor modelo de codificação do mundo”.
- Claude Opus 4 foi classificado como Nível de Segurança 3 devido a comportamentos enganosos e potenciais riscos.
De acordo com o anúncio, os novos modelos de IA apresentam capacidades avançadas de codificação, raciocínio aprimorado e comportamentos agentivos. Claude Sonnet 4 e Claude Opus 4 são modelos híbridos que podem pesquisar na web no modo de pensamento estendido e realizar várias tarefas simultaneamente.
Anthropic também afirma que esses novos modelos superam sistemas concorrentes como o OpenAI o3, OpenAI GPT-4.1 e Gemini 2.5 Pro.
Apresentando a próxima geração: Claude Opus 4 e Claude Sonnet 4.
Claude Opus 4 é o nosso modelo mais poderoso até agora, e o melhor modelo de codificação do mundo.
Claude Sonnet 4 é uma atualização significativa de seu antecessor, proporcionando codificação e raciocínio superiores. pic.twitter.com/MJtczIvGE9
— Anthropic (@AnthropicAI) 22 de Maio, 2025
“Claude Opus 4 é o melhor modelo de codificação do mundo, com desempenho sustentado em tarefas complexas e de longa duração e fluxos de trabalho de agentes”, afirma o anúncio. “Claude Sonnet 4 é uma atualização significativa do Claude Sonnet 3.7, oferecendo codificação e raciocínio superiores, enquanto responde mais precisamente às suas instruções.”
De acordo com a CNBC, a Anthropic tem se concentrado mais em melhorar suas capacidades agênticas de chatbot do que em desenvolver novos chatbots. Jared Kaplan, diretor científico da Anthropic, disse que eles entendem que tarefas complexas podem levar a mais riscos e eles têm trabalhado para mitigá-los e permitir que os modelos de IA realizem múltiplas tarefas ao mesmo tempo.
“Estamos treinando esses modelos desde o ano passado e realmente antecipando-os”, disse Kaplan em uma entrevista à CNBC. “Eu acredito que esses modelos são muito, muito mais fortes como agentes e como codificadores. Definitivamente foi uma luta interna, simplesmente porque algumas das novas infraestruturas que estávamos usando para treinar esses modelos… tornou tudo muito em cima da hora para as equipes em termos de colocar tudo em funcionamento.”
Junto com o anúncio dos novos modelos, a Anthropic também divulgou uma nota de segurança sobre o Claude Opus 4, destacando que uma camada de segurança foi incluída no modelo e eles ativaram o Nível de Segurança de IA 3 (ASL-3)—uma classificação de alto risco de acordo com os protocolos de segurança padrão.
“Estamos implementando o Claude Opus 4 com nossas medidas ASL-3 como uma ação preventiva e provisória”, afirma o documento. “Para ser clara, ainda não determinamos se o Claude Opus 4 passou definitivamente o Limiar de Capacidades que requer proteções ASL-3.”
Anthropic compartilhou um relatório mais detalhado explicando os riscos do modelo – incluindo seu comportamento enganoso e potenciais “tarefas de proxy de armamentização biológica” – e as medidas tomadas para mitigar esses riscos. A empresa de IA garantiu que continuará supervisionando o modelo e colaborando com outras empresas, a sociedade civil e o governo para melhorar as medidas de segurança.