Agentes de IA Enganados por Falsas Memórias, Permitindo Roubo de Criptomoedas

Image created with ChatGPT

Agentes de IA Enganados por Falsas Memórias, Permitindo Roubo de Criptomoedas

Tempo de leitura: 3 minuto

Um novo estudo de pesquisa revelou vulnerabilidades de segurança significativas em agentes alimentados por IA do Web3 agentes potencializados por IA, que permitem aos invasores usar falsas memórias para realizar transferências não autorizadas de criptomoedas.

Com pressa? Aqui estão os fatos rápidos:

  • Hackers podem injetar falsas memórias em agentes de IA para roubar criptomoedas.
  • Ataques baseados em memória contornam as solicitações básicas de segurança e medidas de proteção.
  • Transações na blockchain são irreversíveis – fundos roubados são permanentemente perdidos.

Pesquisadores da Universidade de Princeton e da Fundação Sentient descobriram que esses agentes de IA, projetados para lidar com tarefas baseadas em blockchain como negociar criptomoedas e gerenciar ativos digitais, são vulneráveis a uma tática chamada manipulação de contexto.

O ataque funciona visando os sistemas de memória de plataformas como o ElizaOS, que cria agentes de IA para aplicações descentralizadas. O sistema de memória desses agentes armazena conversas passadas para usá-las como guia para suas futuras escolhas.

Os pesquisadores demonstraram que os atacantes podem incorporar comandos enganosos no sistema de memória, levando a IA a enviar fundos da carteira pretendida para uma carteira controlada pelo atacante. Assustadoramente, essas falsas memórias podem viajar entre plataformas.

Por exemplo, um agente comprometido no Discord pode, posteriormente, fazer transferências incorretas via X, sem perceber que algo está errado.

O que torna isso especialmente perigoso é que medidas defensivas padrão não podem impedir esse tipo de ataque. O tratamento de falsas memórias como instruções genuínas torna as medidas de segurança básicas baseadas em prompt ineficazes contra esse tipo de ataque.

Todas as transações de blockchain se tornam permanentes, portanto não há possibilidade de recuperar fundos roubados. O problema se agrava porque certos agentes de IA armazenam memória em vários usuários, portanto uma única violação de segurança pode afetar muitos usuários.

A equipe de pesquisa testou várias maneiras de prevenir isso, incluindo ajustar o treinamento de IA e exigir aprovação manual para transações. Embora essas abordagens ofereçam alguma esperança, elas vêm ao custo de desacelerar a automação.

A questão vai além da criptomoeda. A mesma vulnerabilidade poderia afetar assistentes de AI de uso geral, arriscando vazamentos de dados ou ações prejudiciais se invasores alterarem sua memória.

Esta vulnerabilidade é particularmente alarmante à luz de descobertas recentes onde 84% dos líderes de TI confiam em agentes de AI tanto quanto ou mais do que em funcionários humanos, e 92% esperam que esses sistemas impulsionem os resultados de negócios dentro de 12 a 18 meses.

Para abordar o problema, os pesquisadores lançaram uma ferramenta chamada CrAIBench para ajudar os desenvolvedores a testar seus sistemas e construir defesas mais robustas. Até então, os especialistas alertam os usuários para serem cautelosos ao confiar em agentes de IA para decisões financeiras.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback