
Photo by Mitchell Luo on Unsplash
A IA do Google Faz Sucesso Novamente Por Alucinar com Significados Falsos de Idiomas
Usuários de mídias sociais notaram que o recurso AI Overviews do Google oferece explicações e definições para expressões idiomáticas falsas quando eles incluem a palavra “significado” após uma frase aleatória. Muitas dessas respostas geradas pela IA se tornaram virais, provocando risadas entre os usuários de mídias sociais.
Com pressa? Aqui estão os fatos rápidos:
- Usuários nas redes sociais notaram que a IA do Google, Overviews, cria explicações para expressões idiomáticas falsas.
- Vários usuários no Threads, X e Bluesky relataram alucinações semelhantes de ditados absurdos e inventados.
- Não é a primeira vez que a AI Overviews se torna viral por fornecer informações incorretas.
Esta não é a primeira vez que o AI Overviews ganha uma reputação embaraçosa. No ano passado, a ferramenta de IA do Google Search viralizou por fornecer respostas incorretas — algumas das quais baseadas em posts antigos do Reddit — comprometendo a credibilidade, confiabilidade e precisão do modelo.
Desta vez, o modelo de IA forneceu aos usuários respostas “sérias” para ditados inventados. De acordo com o Mashable, essa necessidade dos modelos de IA de fornecer uma resposta, mesmo quando eles não têm a resposta ou informações suficientes para fornecer uma resposta correta, agora é conhecida como “AI-splaining.”
Cuspi meu café.
Eu chamo isso de “AI-splaining” pic.twitter.com/K9tLIwoCqC
— Lily Ray 😏 (@lilyraynyc) 20 de abril de 2025
Muitos usuários compartilharam nas redes sociais alguns exemplos da situação atual com as visões gerais de IA. “Alguém nos Threads percebeu que você pode digitar qualquer frase aleatória no Google, adicionar ‘significado’ depois, e você obterá uma explicação de IA de um famoso idioma ou frase que você acabou de inventar”, escreveu uma usuária do Bluesky, que incluiu capturas de tela de seu teste.
Ele escreveu “você não pode lamber um texugo duas vezes”, seguido pela palavra “significado”, e o modelo de IA forneceu uma explicação para o falso idioma: “Isso significa que você pode enganar ou enganar alguém uma segunda vez depois que eles foram enganados uma vez.” IA Overviews prosseguiu para fornecer uma explicação mais detalhada, quebrando-a palavra por palavra.
“As respostas a esta thread são muito engraçadas, mas é um sinal de alerta que uma das principais funções do Google – a capacidade de verificar a veracidade de uma citação, verificar uma fonte, ou rastrear algo meio lembrado – vai ficar muito mais difícil se a IA preferir legitimar possibilidades estatísticas em detrimento da verdade real”, acrescentou o usuário.
Uma repórter do Yahoo! Tech confirmou a alucinação ao escrever expressões falsas de Pokémon como “Nunca deixe seu cavalo jogar Pokémon” e o modelo de IA respondeu com uma explicação totalmente inventada: “É um aviso humorístico e leve contra permitir que um cavalo, que é um animal grande com uma forte vontade, participe de atividades, como jogar videogames ou o jogo de cartas Pokémon, que são tipicamente consideradas atividades humanas.”
Google AI Overviews tem se expandido para mais países e regiões nos últimos meses, e recentemente atingiu mais de 1,5 bilhão de usuários por mês.