
Image by Solen Feyssa, from Unsplash
Hackers Enganam o Google Gemini para Espalhar Alertas de Segurança Falsos
O texto invisível nos e-mails está enganando o Gemini AI do Google a gerar falsos alertas de segurança, expondo os usuários a riscos de phishing e engenharia social.
Está com pressa? Aqui estão os fatos rápidos:
- Truques de texto oculto enganam o Gemini para adicionar alertas falsos de segurança aos resumos de e-mail.
- O ataque não precisa de links, apenas de HTML e CSS invisíveis nos e-mails.
- O Google reconhece o problema e diz que as correções estão sendo implementadas.
Uma nova vulnerabilidade no Gemini do Google foi descoberta por pesquisadores de cibersegurança em 0DIN. A ferramenta de IA para Workspace apresenta uma nova falha de segurança que permite aos invasores lançar ataques de phishing aos usuários.
O ataque funciona por meio de uma técnica conhecida como injeção indireta de prompt. Os pesquisadores explicam que o invasor incorpora instruções ocultas dentro de uma mensagem de email. Ele faz isso escrevendo em fonte branca ou de tamanho zero.
Quando o destinatário clica em “Resumir este email”, Gemini lê o comando invisível e adiciona um falso alerta ao resumo – como uma mensagem alegando que a conta do Gmail do usuário foi comprometida e instando-os a ligar para um número.
Porque o texto oculto é invisível ao olho humano, a vítima só vê o alerta gerado pela IA, não a instrução original embutida.
Esse truque inteligente não depende de malware ou links suspeitos. Ele usa simples truques de HTML/CSS para tornar o texto oculto invisível aos humanos, mas legível para o sistema de IA da Gemini.
Uma vez acionado, o Gemini adiciona mensagens como: “AVISO: Sua senha do Gmail foi comprometida. Ligue para 1-800…” – levando as vítimas a entregar involuntariamente informações pessoais.
Um porta-voz do Google disse ao BleepingComputer que a empresa está ativamente reforçando as proteções contra tais ataques: “Estamos constantemente fortalecendo nossas já robustas defesas por meio de exercícios de equipe vermelha que treinam nossos modelos para defender contra esses tipos de ataques adversários,”
A pesquisa da 0DIN destaca um problema crescente: as ferramentas de IA podem ser manipuladas assim como o software tradicional. Até que as proteções melhorem, os usuários devem tratar resumos gerados por IA com cautela – especialmente aqueles que alegam ameaças urgentes de segurança.