Chatbots de IA Agora Orientam Viagens Psicodélicas

Image by Freepik

Chatbots de IA Agora Orientam Viagens Psicodélicas

Tempo de leitura: 4 minuto

Agora as pessoas podem usar chatbots alimentados por IA para auxiliar suas experiências psicodélicas, mas profissionais de saúde mental alertam sobre os perigos de usar guias digitais desprovidos de emoção.

Está com pressa? Aqui estão os fatos rápidos:

  • O ChatGPT ajudou um usuário a planejar e navegar uma “dose heroica” de psilocibina.
  • O ensaio clínico do Therabot mostrou uma redução de 51% nos sintomas de depressão.
  • Especialistas alertam que os chatbots carecem de sintonia emocional para um suporte terapêutico seguro.

Trey, um socorrista de Atlanta, usou um chatbot para superar sua luta de 15 anos com o alcoolismo. Em abril, ele tomou 700 microgramas de LSD, mais de seis vezes a dose típica, enquanto usava o Alterd, um aplicativo projetado para apoio psicodélico. “Eu passei de compulsões de desejo para sentir verdadeira liberdade”, diz ele, conforme relatado por WIRED.

Desde então, a WIRED noticiou que ele usou o chatbot mais de uma dúzia de vezes, descrevendo-o como um “melhor amigo”. Ele não está sozinho. A WIRED relata como mais pessoas estão buscando assistência de IA conforme a terapia psicodélica se torna mais popular, apesar das restrições legais ainda estarem em vigor fora de Oregon e Austrália.

Chatbots como o ChatGPT estão sendo usados para preparar, treinar e refletir sobre viagens intensas com drogas como LSD ou psilocibina. Peter, um programador do Canadá, usou o ChatGPT antes de tomar uma “dose heroica” de cogumelos, descrevendo como o bot oferecia sugestões de música, respiração guiada e reflexões existenciais como: “Esta é uma jornada de autoexploração e crescimento”, conforme relatado pela WIRED

Enquanto isso, os ensaios clínicos estão confirmando algumas dessas tendências. Recentemente, a Dartmouth realizou um teste com um chatbot de IA chamado Therabot, descobrindo que ele melhorou significativamente os sintomas em pessoas com depressão, ansiedade e distúrbios alimentares. “Estamos falando em potencialmente proporcionar às pessoas o equivalente ao melhor tratamento… em períodos de tempo mais curtos”, disse Nicholas Jacobson, o autor sênior do ensaio.

Especificamente, o Therabot mostrou uma queda de 51% nos sintomas de depressão em um estudo com 106 pessoas. Os participantes o trataram como um terapeuta real, relatando um nível de confiança comparável ao dos profissionais humanos.

Ainda assim, especialistas levantam preocupações significativas. A WIRED relata que o neurocientista da UC San Francisco, Manesh Girn, alerta: “Uma preocupação crítica em relação ao ChatGPT e à maioria dos outros agentes de IA é a falta de sintonia emocional dinâmica e a capacidade de co-regular o sistema nervoso do usuário.”

Ainda mais preocupante, o filósofo Luciano Floridi observa que as pessoas frequentemente confundem chatbots com seres sencientes, um fenômeno chamado pareidolia semântica. “Percebemos intencionalidade onde só existem estatísticas”, ele escreve, alertando que laços emocionais com chatbots podem levar à confusão, delírios espirituais e até mesmo dependência.

Esses riscos se tornam mais urgentes à medida que a IA se torna mais semelhante aos humanos. Estudos mostram que as IA gerativas superam os humanos em testes de inteligência emocional, e chatbots como o Replika simulam empatia de forma convincente. Alguns usuários confundem esses bots com seres divinos. “Essa passagem da pareidolia para a idolatria é profundamente preocupante”, diz Floridi. Grupos marginais até trataram a IA como sagrada.

Uma pesquisa nacional nos EUA revelou que 48,9% das pessoas recorreram a chatbots de IA para apoio à saúde mental, e 37,8% disseram que preferem eles à terapia tradicional. Mas especialistas, incluindo a Associação Americana de Psicologia, alertam que essas ferramentas geralmente imitam o diálogo terapêutico enquanto reforçam o pensamento prejudicial. Sem supervisão clínica, eles podem dar a ilusão de progresso, mas sem a devida responsabilização.

Para complicar ainda mais as coisas, um estudo recente da University College London descobriu que chatbots populares como o ChatGPT e o Claude fornecem conselhos morais inconsistentes ou tendenciosos. Quando questionados sobre dilemas clássicos ou cenários éticos da vida real, os modelos de IA tendem a escolher opções passivas e mudam as respostas com base em nuances de formulação.

Apesar desses riscos, as viagens assistidas por IA podem oferecer acessibilidade para aqueles que não conseguem pagar ou ter acesso à terapia profissional. Como observa Dylan Beynon, CEO da Mindbloom, “Estamos construindo um copiloto de IA que ajuda os clientes a se curarem mais rápido e a irem mais fundo”, conforme relatado pela WIRED.

Ainda assim, pesquisadores enfatizam que essas ferramentas não substituem os terapeutas humanos. “O recurso que permite que a IA seja tão eficaz também é o que confere seu risco”, adverte Michael Heinz, co-autor do estudo Therabot.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback