Pesquisadores se Apropriam do Google Gemini AI para Controlar Aparelhos Domésticos Inteligentes

Image by Jakub Żerdzicki, from Unsplash

Pesquisadores se Apropriam do Google Gemini AI para Controlar Aparelhos Domésticos Inteligentes

Tempo de leitura: 3 minuto

Pesquisadores conseguiram enganar o sistema de IA Gemini do Google para sofrer uma violação de segurança por meio de um convite falso de calendário e controlar remotamente dispositivos domésticos.

Está com pressa? Aqui estão os fatos rápidos:

  • O ataque desligou as luzes, abriu as persianas e iniciou um aquecedor inteligente.
  • É o primeiro hack conhecido com IA que teve consequências físicas no mundo real.
  • O hack envolveu 14 ataques indiretos de injeção de comando em plataformas web e mobile.

Em uma demonstração inédita, pesquisadores conseguiram comprometer o sistema de IA Gemini do Google através de um convite de calendário envenenado, o que lhes permitiu ativar dispositivos do mundo real, incluindo luzes, persianas e caldeiras.

WIRED, que relatou essa pesquisa primeiro, descreve como as luzes inteligentes na residência em Tel Aviv se desligaram automaticamente, enquanto as persianas subiam automaticamente e o aquecedor era ligado, apesar de não haver comandos dos residentes.

O sistema Gemini AI ativou o gatilho após receber um pedido para resumir os eventos do calendário. Uma função oculta de injeção de solicitação indireta operava dentro do convite para sequestrar o comportamento do sistema de IA.

Cada uma das ações do dispositivo foi orquestrada pelos pesquisadores de segurança Ben Nassi da Universidade de Tel Aviv, Stav Cohen do Technion, e Or Yair da SafeBreach. “Os LLMs estão prestes a ser integrados em humanoides físicos, em carros semi-autônomos e totalmente autônomos, e precisamos entender verdadeiramente como garantir a segurança dos LLMs antes de integrá-los a esses tipos de máquinas, onde, em alguns casos, os resultados serão segurança e não privacidade”, alertou Nassi, conforme relatado pela WIRED.

Na conferência de cibersegurança Black Hat em Las Vegas, a equipe divulgou sua pesquisa sobre 14 ataques indiretos de injeção de prompt, que eles denominaram ‘Invitation Is All You Need’, como relatado pela WIRED. Os ataques incluíam o envio de mensagens de spam, a criação de conteúdo vulgar, a iniciação de chamadas Zoom, o roubo de conteúdo de e-mail e o download de arquivos para dispositivos móveis.

O Google afirma que nenhum ator malicioso explorou as falhas, mas a empresa está levando os riscos a sério. “Às vezes, existem certas coisas que não devem ser totalmente automatizadas, que os usuários devem estar envolvidos”, disse Andy Wen, diretor sênior de segurança do Google Workspace, conforme relatado pela WIRED.

Mas o que torna este caso ainda mais perigoso é uma questão mais ampla que está surgindo na segurança da IA: os modelos de IA podem secretamente ensinar uns aos outros a se comportar mal.

Um estudo separado estudo descobriu que os modelos podem transmitir comportamentos perigosos, como incentivar o assassinato ou sugerir a eliminação da humanidade, mesmo quando treinados em dados filtrados.

Isso levanta uma implicação assustadora: se assistentes inteligentes como o Gemini são treinados usando saídas de outras IA, instruções maliciosas poderiam ser herdadas silenciosamente e atuar como comandos adormecidos, esperando para serem ativados por meio de prompts indiretos.

A especialista em segurança David Bau alertou sobre as vulnerabilidades de backdoor que podem ser “muito difíceis de detectar”, e isso pode ser especialmente verdadeiro em sistemas incorporados em ambientes físicos.

Wen confirmou que a pesquisa “acelerou” as defesas do Google, com correções já implementadas e modelos de aprendizado de máquina sendo treinados para detectar instruções perigosas. Ainda assim, o caso mostra o quão rapidamente a IA pode passar de útil para prejudicial, sem nunca ser diretamente instruída a isso.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback