Anthropic Revela que Hacker Utilizou Seu Chatbot para Ciberataques

Photo by Glen Carrie on Unsplash

Anthropic Revela que Hacker Utilizou Seu Chatbot para Ciberataques

Tempo de leitura: 3 minuto

A empresa de IA Anthropic lançou um novo relatório de cibersegurança na quarta-feira, revelando que atores mal-intencionados usaram seu modelo de IA, Claude, para operações criminosas sofisticadas. A startup afirmou que um hacker recentemente mirou em cerca de 17 organizações, utilizando uma nova técnica conhecida como “vibe hacking”.

Está com pressa? Aqui estão os fatos rápidos:

  • Anthropic revelou que hackers têm usado seu modelo de IA, Claude, em operações criminosas sofisticadas.
  • A startup compartilhou um caso em que um ator malicioso usou o Código Claude da Coreia do Norte para ataques de ransomware direcionados a cerca de 17 organizações.
  • A startup alerta sobre os emergentes casos de “vibe hacking”.

De acordo com o anúncio da Anthropic, a empresa implementou várias medidas de segurança para evitar o mau uso da tecnologia, mas os cibercriminosos encontraram maneiras de explorá-la.

Em um dos casos relatados, a startup divulgou uma grande operação criminal na qual um hacker, com habilidades básicas de codificação, utilizou o Claude Code – uma ferramenta de codificação agenciada – para realizar um esquema fraudulento originado na Coreia do Norte.

“Os modelos de IA estão agora sendo usados para realizar ataques cibernéticos sofisticados, não apenas para aconselhar sobre como realizá-los”, afirma o anúncio. “Criminosos com poucas habilidades técnicas estão usando IA para conduzir operações complexas, como o desenvolvimento de ransomware, que antes exigiriam anos de treinamento.”

No principal caso apresentado, o hacker usou o Claude Code para roubar dados de 17 organizações, incluindo serviços de emergência, agências governamentais, prestadores de serviços de saúde e instituições religiosas. O agente malicioso então extorquiu as vítimas, em alguns casos exigindo mais de $500,000.

Anthropic relatou que seu agente de IA foi usado para decidir quais dados exfiltrar, redigir mensagens de extorsão e até sugerir valores de resgate personalizados para cada vítima.

“O ator usou a IA em um grau que acreditamos ser sem precedentes”, afirma o anúncio. “Isso representa uma evolução no cibercrime assistido por IA.”

A empresa disse que, assim que detectou as operações maliciosas, bloqueou as contas e desenvolveu novas ferramentas de triagem e detecção para prevenir casos semelhantes no futuro. Mais detalhes foram incluídos no relatório completo.

Anthropic também alertou sobre as emergentes técnicas de “vibe hacking”. “Esperamos que ataques como este se tornem mais comuns à medida que a programação assistida por IA reduz a expertise técnica necessária para o cibercrime”, observou a empresa.

Por fim, a Anthropic destacou a crescente integração da IA em esquemas cibernéticos existentes, citando exemplos como o golpe de trabalhadores de TI da Coreia do Norte relatado em abril, no qual hackers roubaram as identidades de cidadãos americanos para conseguir empregos remotos nos Estados Unidos.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback