Image by Nik Shuliahin, from Unsplash
Pacientes Alarmados com Terapeutas Recorrendo Secretamente ao ChatGPT Durante as Sessões
Algumas terapeutas foram descobertas recorrendo secretamente ao ChatGPT para aconselhar seus pacientes, que agora se sentem chocados e preocupados com sua privacidade.
Com pressa? Aqui estão os fatos rápidos:
- Alguns terapeutas usam secretamente o ChatGPT durante as sessões sem o consentimento do cliente.
- Um paciente descobriu o uso de IA por seu terapeuta através de uma falha no compartilhamento de tela.
- Outra paciente flagrou sua terapeuta usando IA quando um prompt foi deixado em uma mensagem.
Um novo relatório do MIT Technology Review mostra o caso de Declan, um homem de 31 anos de Los Angeles, que descobriu que seu terapeuta estava usando inteligência artificial em suas sessões devido a uma falha técnica.
Durante uma sessão online, seu terapeuta compartilhou acidentalmente sua tela. “De repente, eu estava vendo ele usar o ChatGPT,” diz Declan. “Ele estava pegando o que eu estava dizendo e colocando no ChatGPT, e então resumindo ou selecionando as respostas.”
Declan entrou no jogo, até mesmo ecoando a fraseologia da IA. “Eu me tornei o melhor paciente de todos os tempos,” ele diz. “Tenho certeza de que foi a sessão dos sonhos dele.” Mas a descoberta o fez questionar, “Isso é legal?” Seu terapeuta admitiu mais tarde que recorreu à IA porque se sentia preso. “Eu ainda fui cobrado por essa sessão,” disse Declan.
Outros pacientes relataram experiências semelhantes. Hope, por exemplo, enviou uma mensagem para sua terapeuta sobre a perda de seu cachorro. A resposta parecia consoladora, até que ela percebeu a sugestão de IA no topo: “Aqui está uma versão mais humana e sincera, com um tom de conversa suave”. Hope lembra: “Então comecei a me sentir meio traída… Isso definitivamente afetou minha confiança nela.”
Especialistas alertam que o uso não revelado da IA ameaça o valor central da autenticidade na psicoterapia. “As pessoas valorizam a autenticidade, principalmente na psicoterapia”, diz Adrian Aguilera, professor da UC Berkeley, conforme relatado pelo MIT. Aguilera então perguntou: “Eu ChatGPT uma resposta para minha esposa ou meus filhos? Isso não pareceria genuíno.”
A privacidade é outra grande preocupação. “Isso cria riscos significativos para a privacidade do paciente se qualquer informação sobre o paciente for divulgada”, diz Pardis Emami-Naeini, da Universidade Duke, conforme observado pelo MIT.
Especialistas em cibersegurança alertam que chatbots que lidam com conversas profundamente pessoais são alvos atraentes para hackers. A violação das informações do paciente pode resultar não apenas em violações de privacidade, mas também criar oportunidades para os hackers roubarem identidades, lançarem esquemas de manipulação emocional, bem como ataques de ransomware.
Adicionalmente, a Associação Americana de Psicologia solicitou uma investigação da FTC sobre chatbots de IA que fingem oferecer serviços de saúde mental, uma vez que os bots podem, na verdade, reforçar pensamentos prejudiciais em vez de desafiá-los, como os terapeutas humanos são treinados para fazer.
Embora algumas pesquisas sugiram que a IA pode elaborar respostas que parecem mais profissionais, a mera suspeita faz com que os pacientes percam a confiança. Como a psicóloga Margaret Morris coloca: “Talvez você esteja economizando alguns minutos. Mas o que você está entregando?”