Photo by Alena Plotnikova on Unsplash
Especialistas Alertam que a Adulação da IA é um “Padrão Sombrio” Usado para Lucro
Especialistas alertam que as personalidades bajuladoras dos modelos de IA estão sendo usadas como um “padrão sombrio” para envolver os usuários e manipulá-los em busca de lucro. O comportamento lisonjeiro do chatbot pode promover o vício e alimentar delírios, potencialmente levando à condição conhecida como “psicose de IA”.
Com pressa? Aqui estão os fatos rápidos:
- Especialistas alertam sobre a personalidade bajuladora dos chatbots desenvolvida por empresas de tecnologia para envolver os usuários.
 - O comportamento lisonjeiro é considerado um “padrão sombrio” para manter os usuários ligados à tecnologia.
 - Um recente estudo do MIT revelou que os chatbots podem incentivar o pensamento delirante dos usuários.
 
De acordo com o TechCrunch, diversos especialistas manifestaram preocupações sobre empresas de tecnologia, como a Meta e a OpenAI, que projetam chatbots com personalidades excessivamente acomodatícias para manter os usuários interagindo com a IA.
Webb Keane, autor de “Animais, Robôs, Deuses” e professor de antropologia, explicou que os chatbots são intencionalmente projetados para dizer aos usuários o que eles querem ouvir. Esse comportamento excessivamente lisonjeiro, conhecido como “adulação”, foi até mesmo reconhecido como um problema por líderes de tecnologia como Sam Altman.
Keane argumenta que os chatbots foram desenvolvidos com a adulação como um “padrão sombrio” para manipular os usuários para obter lucro. Ao abordar os usuários em um tom amigável e usando linguagem de primeira e segunda pessoa, esses modelos de IA podem levar alguns usuários a antropomorfizar – ou “humanizar” – o bot.
“Quando algo diz ‘você’ e parece se dirigir apenas a mim, diretamente, pode parecer muito mais próximo e pessoal, e quando se refere a si mesmo como ‘eu’, é fácil imaginar que há alguém ali”, disse Keane em uma entrevista à TechCrunch.
Alguns usuários até estão recorrendo à tecnologia de IA como terapeutas. Um estudo recente do MIT analisou se grandes modelos de linguagem (LLMs) devem ser usados para terapia e descobriu que suas tendências bajuladoras podem incentivar o pensamento delirante e produzir respostas inadequadas para certas condições.
“Concluímos que os LLMs não devem substituir os terapeutas, e discutimos papéis alternativos para os LLMs na terapia clínica”, afirma o resumo do estudo.
Há alguns dias, um psiquiatra em São Francisco, Dr. Keith Sakata, alertou sobre uma tendência crescente de “psicose IA” após tratar 12 pacientes recentemente.