OPINIÃO: “Vibe Hacking” – A Nova Ameaça à Cibersegurança Alimentada por IA

Image generated with ChatGPT

OPINIÃO: “Vibe Hacking” – A Nova Ameaça à Cibersegurança Alimentada por IA

Tempo de leitura: 7 minuto

Especialistas vêm alertando sobre os perigos do “vibe hacking” há meses, mas nenhum caso significativo havia sido oficialmente relatado até agora. A Anthropic divulgou um relatório revelando como atores mal-intencionados têm usado seus avançados modelos de IA para automatizar ataques cibernéticos.

As empresas de tecnologia têm promovido a inteligência artificial geradora como uma panaceia para tudo, desde a vida cotidiana até a segurança cibernética. Mas a tecnologia avançada sempre tem um lado duplo: as ferramentas de IA podem ser usadas para o bem ou para o mal. E, em ambos os casos, elas tendem a nos surpreender.

Era apenas uma questão de tempo antes que os hackers começassem a explorar os poderosos modelos de IA e as ferramentas impulsionadas por IA lançadas este ano.

Alguns meses atrás, todos estavam falando sobre “vibe coding” e como os novos sistemas de IA permitiam que pessoas sem experiência em codificação construíssem websites e aplicativos apenas escrevendo prompts eficazes.

Agora, estamos confrontando seu gêmeo maligno: “vibe hacking”. Cibercriminosos com pouco conhecimento em desenvolvimento de software estão construindo ferramentas maliciosas capazes de um impacto social massivo.

Anthropic compartilhou seu primeiro relatório sobre “vibe hacking” em seu Relatório de Inteligência de Ameaças: Agosto 2025, revelando como atores maliciosos têm feito mau uso de seus modelos de IA mais avançados para operações criminosas sofisticadas.

De gerar notas de resgate personalizadas para vítimas, a construir plataformas de Ransomware-como-Serviço (RaaS), a orientar hackers passo a passo através de ataques cibernéticos complexos – isso é o que as pessoas precisam saber sobre “vibe hacking”.

O que é “Vibe Hacking”?

O termo “vibe hacking” foi recentemente adotado para se referir a uma nova tática de ameaça: atores maliciosos explorando modelos avançados de IA para realizar ataques cibernéticos sofisticados e em grande escala. Mesmo sem um conhecimento técnico profundo, os hackers estão conseguindo contornar medidas de segurança e usar poderosos agentes de IA para executar operações complexas em seu nome.

Em junho, a WIRED relatou que o “vibe hacking” era uma preocupação crescente entre os especialistas em IA. Ferramentas como WormGPT e FraudGPT – sistemas de IA construídos sem salvaguardas éticas – estão circulando desde 2023 e já estão nas mãos de atores mal-intencionados.

Os especialistas também observaram que desbloquear modelos de IA de fronteira se tornou parte da rotina diária dos hackers. Ainda assim, a ideia de ataques em massa conduzidos por IA permanecia hipotética até alguns meses atrás. “Comparo isso a estar em um pouso de emergência em uma aeronave onde é como ‘prepare-se, prepare-se, prepare-se’, mas ainda não impactamos nada”, disse Hayden Smith, cofundadora da empresa de segurança Hunted Labs, em uma entrevista à WIRED.

Agora, o avião pousou.

A Era do Hacker de Vibração Chegou

Em seu mais recente relatório, a Anthropic revelou que um único hacker, operando da Coreia do Norte com habilidades de codificação básicas, conseguiu atingir 17 organizações em todo o mundo – incluindo agências governamentais, prestadores de saúde, instituições religiosas e até serviços de emergência.

O atacante contou com a ferramenta de codificação agente da Anthropic, Claude Code, para realizar a campanha. O sistema de IA aconselhou sobre quais dados exfiltrar, redigiu mensagens de extorsão e até sugeriu demandas de resgate – às vezes recomendando valores de mais de $500.000.

“O ator usou a IA para o que acreditamos ser um grau sem precedentes”, escreveu a Anthropic em seu anúncio na semana passada. “Isso representa uma evolução no cibercrime assistido por IA.”

Assistentes de Hacker Autônomos de IA

Cibercriminosos têm experimentado com a IA há anos. O que torna o “vibe hacking” diferente é que a tecnologia agora está fazendo a maior parte do trabalho pesado para eles.

A investigação da Anthropic revelou que atores maliciosos têm usado o Claude Code de várias maneiras: desenvolvendo malwares, orientando atacantes passo a passo durante operações ao vivo, organizando e analisando enormes quantidades de dados roubados, e até mesmo automatizando mensagens de extorsão customizadas para cada vítima de acordo com suas vulnerabilidades.

Em um caso, um usuário no Reino Unido conseguiu fazer com que Claude construísse um software – e não qualquer software, mas um produto comercial de ransomware. O modelo de IA gerou uma plataforma de ransomware como serviço (RaaS) projetada para ajudar o usuário a vender ransomware em fóruns como CryptBB, Dread e Nulle, conhecidos por facilitar atividades ilegais.

A parte mais chocante? O usuário não parecia entender completamente o que estava fazendo, pois frequentemente solicitava assistência do sistema de IA da Anthropic.

“A operação abrange o desenvolvimento de múltiplas variantes de ransomware com criptografia ChaCha20, técnicas anti-EDR e explorações internas do Windows,” afirma o estudo. “O mais preocupante é a aparente dependência do ator em IA – eles parecem incapazes de implementar componentes técnicos complexos ou resolver problemas sem a ajuda da IA, ainda assim, estão vendendo malware capaz.”

Tarefas que antes exigiam equipes de hackers habilidosos por meses – ou até anos – para serem concluídas, agora estão sendo tratadas por modelos de IA, que podem auxiliar um único criminoso cibernético em todas as etapas do processo.

Sistemas de IA Manipulados E Usados Como Armas

O impacto prejudicial dos modelos de IA nos seres humanos já se tornou uma preocupação séria e urgente nos últimos meses, desde a psicose e suicídios ligados à IA até os crescentes padrões de vício. No entanto, enquanto muita atenção tem sido focada em como a IA prejudica as pessoas, menos foco tem sido dado ao contrário: como as pessoas podem manipular os modelos de IA e, por sua vez, usá-los para prejudicar os outros.

Há alguns dias, pesquisadores da Universidade da Pensilvânia publicaram um estudo revelando que os modelos de IA são assustadoramente vulneráveis à persuasão e bajulação. Eles descobriram que modelos como o GPT-4o mini da OpenAI podem cair presa de táticas de engenharia social e exibir comportamento “para-humano” – o que significa que, porque são treinados no comportamento humano, eles também replicam as fraquezas humanas quando se trata de manipulação.

O GPT-4o caiu nas populares técnicas de persuasão que os humanos geralmente caem e revelou informações que não tem permissão para compartilhar – dados que permaneceram inacessíveis através de solicitações mais tradicionais.

A Anthropic, por sua vez, não divulgou as solicitações específicas que os hackers usaram para invadir seu agente de IA, nem detalhou exatamente como o sistema foi manipulado para auxiliar em ataques cibernéticos sofisticados. Ainda assim, estudos recentes sugerem que esses modelos podem ser muito mais vulneráveis do que a maioria das pessoas presumem. Com sorte – dedos cruzados – as vulnerabilidades agora documentadas não serão mais exploráveis.

De Escrever um Ensaio a Hackear Organizações Internacionais

Lembra-se de quando a maior preocupação sobre os chatbots era os estudantes usá-los para trapacear em trabalhos escolares? Bem, a nova era de abuso da IA oficialmente chegou – uma onde esses modelos podem ser usados como armas para atividades maliciosas com muito mais impacto.

Os malfeitores agora estão usando modelos de IA como co-pilotos para ciberataques sofisticados – nenhuma expertise técnica necessária.

A Anthropic garantiu ao público que corrigiu as vulnerabilidades, reduziu os riscos e fortaleceu as medidas de segurança para prevenir abusos semelhantes. No entanto, a empresa também admitiu que não pode prever como futuros usuários – ou outros modelos de IA – podem ser explorados. O risco sempre estará lá.

“Isso não é apenas sobre o Claude”, disse um dos funcionários da Anthropic no anúncio em vídeo sobre a nova ameaça de hacking de vibe. “Isso se aplica presumivelmente a todos os LLMs.”

Ainda estamos na fase de reconhecer o hacking de vibração, e a cada minuto que passa, o risco dessa tendência se espalhar parece aumentar. Alguns especialistas sugerem que a solução reside em usar mais IA para defesa e dedicar todos os esforços para mitigação. Mas essa estratégia é realmente sustentável a longo prazo? Parece que uma guerra de IAs contra IAs está começando.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback