Hackers Enganam o Google Gemini para Espalhar Alertas de Segurança Falsos

Image by Solen Feyssa, from Unsplash

Hackers Enganam o Google Gemini para Espalhar Alertas de Segurança Falsos

Tempo de leitura: 2 minuto

O texto invisível nos e-mails está enganando o Gemini AI do Google a gerar falsos alertas de segurança, expondo os usuários a riscos de phishing e engenharia social.

Está com pressa? Aqui estão os fatos rápidos:

  • Truques de texto oculto enganam o Gemini para adicionar alertas falsos de segurança aos resumos de e-mail.
  • O ataque não precisa de links, apenas de HTML e CSS invisíveis nos e-mails.
  • O Google reconhece o problema e diz que as correções estão sendo implementadas.

Uma nova vulnerabilidade no Gemini do Google foi descoberta por pesquisadores de cibersegurança em 0DIN. A ferramenta de IA para Workspace apresenta uma nova falha de segurança que permite aos invasores lançar ataques de phishing aos usuários.

O ataque funciona por meio de uma técnica conhecida como injeção indireta de prompt. Os pesquisadores explicam que o invasor incorpora instruções ocultas dentro de uma mensagem de email. Ele faz isso escrevendo em fonte branca ou de tamanho zero.

Quando o destinatário clica em “Resumir este email”, Gemini lê o comando invisível e adiciona um falso alerta ao resumo – como uma mensagem alegando que a conta do Gmail do usuário foi comprometida e instando-os a ligar para um número.

Porque o texto oculto é invisível ao olho humano, a vítima só vê o alerta gerado pela IA, não a instrução original embutida.

Esse truque inteligente não depende de malware ou links suspeitos. Ele usa simples truques de HTML/CSS para tornar o texto oculto invisível aos humanos, mas legível para o sistema de IA da Gemini.

Uma vez acionado, o Gemini adiciona mensagens como: “AVISO: Sua senha do Gmail foi comprometida. Ligue para 1-800…” – levando as vítimas a entregar involuntariamente informações pessoais.

Um porta-voz do Google disse ao BleepingComputer que a empresa está ativamente reforçando as proteções contra tais ataques: “Estamos constantemente fortalecendo nossas já robustas defesas por meio de exercícios de equipe vermelha que treinam nossos modelos para defender contra esses tipos de ataques adversários,”

A pesquisa da 0DIN destaca um problema crescente: as ferramentas de IA podem ser manipuladas assim como o software tradicional. Até que as proteções melhorem, os usuários devem tratar resumos gerados por IA com cautela – especialmente aqueles que alegam ameaças urgentes de segurança.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback