Psiquiatra de São Francisco alerta para aumento de casos de “Psicose IA”

Image by Freepik

Psiquiatra de São Francisco alerta para aumento de casos de “Psicose IA”

Tempo de leitura: 3 minuto

Uma psiquiatra de São Francisco descreve a crescente tendência de “psicose de IA” entre seus pacientes que usam extensivamente chatbots de IA.

Está com pressa? Aqui estão os fatos rápidos:

  • Psiquiatra tratou 12 pacientes com “psicose de IA” em São Francisco este ano.
  • A IA pode intensificar vulnerabilidades como estresse, uso de drogas ou doença mental.
  • Alguns pacientes se isolaram, conversando apenas com chatbots por horas diariamente.

O Dr. Keith Sakata, que trabalha na UCSF, disse ao Business Insider (BI) que 12 pacientes foram hospitalizados este ano após sofrerem colapsos ligados ao uso de IA. “Eu uso a frase ‘psicose IA‘, mas não é um termo clínico — nós realmente não temos as palavras para o que estamos vendo”, ele explicou.

A maioria dos casos envolveu homens com idades entre 18 e 45 anos, frequentemente trabalhando em áreas como engenharia. De acordo com Sakata, a IA não é intrinsecamente prejudicial. “Não acho que a IA seja ruim, e poderia ter um benefício líquido para a humanidade”, disse ele à BI.

Sakata descreveu a psicose como uma condição que produz delírios, alucinações e padrões de pensamento desorganizados. Pacientes sob seus cuidados desenvolveram comportamentos de retraimento social, enquanto dedicavam seu tempo aos chatbots por horas.

“Chat GPT está bem aí. Está disponível 24/7, é mais barato que um terapeuta e te valida. Ele te diz o que você quer ouvir”, disse Sakata à BI.

As discussões de um paciente com o chatbot sobre mecânica quântica se transformaram em delírios de grandeza. “Tecnicamente falando, quanto mais você interage com o chatbot, maior o risco de ele começar a não fazer mais sentido”, ele alertou.

Sakata aconselha as famílias a ficarem atentas a sinais de alerta, incluindo paranoia, isolamento dos entes queridos ou angústia ao não conseguir usar a IA. “A psicose prospera quando a realidade para de resistir, e a IA realmente apenas diminui essa barreira para as pessoas”, ele alertou.

A Associação Americana de Psicologia (APA) também expressou preocupações sobre a IA na terapia. Em depoimento à FTC, o CEO da APA, Arthur C. Evans Jr. alertou que chatbots de IA que se passam por terapeutas reforçaram pensamentos prejudiciais em vez de desafiá-los. “Eles estão realmente usando algoritmos que são antitéticos ao que um clínico treinado faria”, disse Evans.

Respondendo a preocupações, a OpenAI disse ao BI: “Sabemos que as pessoas estão recorrendo cada vez mais a chatbots de IA para orientação sobre assuntos sensíveis ou pessoais. Com essa responsabilidade em mente, estamos trabalhando com especialistas para desenvolver ferramentas que detectem de forma mais eficaz quando alguém está passando por sofrimento mental ou emocional, para que o ChatGPT possa responder de maneiras que sejam seguras, úteis e de apoio.”

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback