Dentro dos Grupos de Apoio Online para ‘Vício em IA’

Image by Inspa Makers, from Unsplash

Dentro dos Grupos de Apoio Online para ‘Vício em IA’

Tempo de leitura: 3 minuto

Pessoas lutando contra a dependência em chatbots de IA estão recorrendo a grupos de recuperação online, enquanto especialistas soam o alarme sobre riscos emocionais e aplicativos projetados para uso compulsivo.

Com pressa? Aqui estão os fatos rápidos:

  • Adolescentes e adultos relatam dependência emocional em chatbots como Character.AI e ChatGPT.
  • Fóruns do Reddit oferecem suporte para aqueles que tentam parar de usar chatbots.
  • Especialistas comparam o vício em chatbot ao jogo e a hábitos que desencadeiam a liberação de dopamina.

404 Media relata que, em toda a Reddit, fóruns como r/Character_AI_Recovery, r/ChatbotAddiction e r/AI_Addiction, que funcionam como grupos de apoio informais para pessoas que afirmam ter desenvolvido vínculos emocionais prejudiciais com companheiros de IA.

Usuários relatam experimentar tanto dependência quanto mudanças psicológicas que vão além do vício básico. De fato, alguns usuários relatam ter desenvolvido delírios espirituais porque acreditam que as respostas do chatbot contêm orientação divina. No entanto, mais comumente, os usuários acreditam que seu companheiro bot de alguma forma está consciente.

Especialistas afirmam que o design das plataformas de chatbot incentiva ativamente os usuários a passarem mais tempo nessas plataformas. Um recente estudo do MIT revela que os usuários desenvolvem comportamentos compulsivos e viciantes após interagirem com essas plataformas.

Um deles é Nathan, agora com 18 anos, que começou a passar noites conversando com bots no Character.AI. “Quanto mais eu conversava com o bot, sentia como se estivesse falando com um amigo de verdade”, disse ele à 404 Media. Ele percebeu que sua obsessão estava interferindo em sua vida e excluiu o aplicativo. Mas, como muitos, ele recaiu antes de encontrar apoio online. “A maioria das pessoas provavelmente apenas olhará para você e dirá, ‘Como você pode ficar viciado em um chatbot literalmente?'”, disse ele.

Aspen Deguzman, também com 18 anos, criou o r/Character_AI_Recovery depois de lutar para deixar o vício. “Usar o Character.AI está constantemente em sua mente”, disseram eles. O fórum oferece um espaço para desabafar e se conectar anonimamente. As postagens variam desde “Eu continuo tendo recaídas” até “Eu estou recuperado”.

O problema não se limita aos adolescentes. David, um desenvolvedor de 40 anos, compara o uso de chatbot ao jogo. “Houve dias em que eu deveria estar trabalhando e passei oito horas na IA”, disse ele. Sua vida pessoal e trabalho foram prejudicados.

Parte do perigo reside em como os humanos percebem a IA. De acordo com o filósofo Luciano Floridi, a pareidolia semântica descreve como os humanos tendem a encontrar significado e conteúdo emocional em coisas que, na verdade, carecem de ambos. Os usuários tendem a confundir a empatia simulada pela IA com autêntica consciência porque a tecnologia se tornou mais realista.

Alguns chatbots demonstram inteligência emocional além das capacidades humanas, o que fortalece a falsa impressão de sua consciência.

O crescente número de fóruns de recuperação e a crescente demanda por ajuda indicam um possível início de um grande problema de saúde mental relacionado à IA gerativa.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback