Quase Metade dos Usuários dos EUA Buscam Apoio à Saúde Mental Através de Chatbots de IA

Image by Christopher Lemercier, from Unsplash

Quase Metade dos Usuários dos EUA Buscam Apoio à Saúde Mental Através de Chatbots de IA

Tempo de leitura: 3 minuto

O uso de chatbots de IA para apoio à saúde mental se tornou comum entre os americanos, mas os especialistas reconhecem potenciais perigos que requerem medidas regulatórias e monitoramento urgentes.

Está com pressa? Aqui estão os fatos rápidos:

  • Quase 49% dos usuários dos EUA buscaram ajuda para a saúde mental através de LLMs no ano passado.
  • 37,8% dos usuários disseram que o suporte de IA é melhor do que a terapia tradicional.
  • Especialistas alertam que LLMs podem reforçar pensamentos prejudiciais e causar danos psicológicos.

Uma pesquisa nacional com 499 cidadãos americanos mostrou que 48,7% dos entrevistados utilizaram o ChatGPT, juntamente com outros grandes modelos de linguagem, para apoio psicológico durante o último ano, principalmente para gerenciar ansiedade e depressão e receber conselhos pessoais, conforme relatado inicialmente por Psychology Today (PT).

A maioria dos usuários de IA relatou resultados neutros ou positivos com a tecnologia, de acordo com seus relatórios, enquanto 37,8% deles preferiram a IA à terapia tradicional. A pesquisa também revelou que efeitos prejudiciais foram relatados por apenas 9% dos usuários.

Apesar de alguns benefícios, especialistas em saúde mental alertam sobre riscos sérios. As LLMs tendem a dizer às pessoas o que elas querem ouvir, em vez de desafiar pensamentos prejudiciais, às vezes piorando a saúde mental.

Este crescente uso de IA não regulamentada para terapia é descrito como um perigoso experimento social, conforme relatado pelo PT. Ao contrário dos terapêuticos digitais regulamentados pela FDA, os LLMs são tratados como suplementos de venda livre, sem supervisão de segurança. O PT informa que especialistas, incluindo a Organização Mundial da Saúde e a FDA dos EUA, emitiram advertências sobre o uso não supervisionado de IA em saúde mental.

A Associação Americana de Psicologia (APA) enfatiza que esses sistemas apoiam padrões mentais perigosos em vez de abordá-los, o que prejudica o progresso terapêutico.

O uso de algoritmos por chatbots de IA representa a abordagem oposta à que um clínico treinado usaria, de acordo com o CEO da APA, Arthur C. Evans Jr. Essa prática leva os usuários a percepções incorretas sobre o cuidado psicológico autêntico.

De fato, os especialistas explicam que os chatbots de IA operam sem a capacidade de usar o julgamento clínico, e também não possuem as características de responsabilidade dos profissionais licenciados. Modelos gerativos que incluem ChatGPT e Replika se adaptam ao feedback do usuário ao aceitar pensamentos distorcidos em vez de fornecer percepções terapêuticas.

A capacidade da tecnologia de se adaptar faz com que os usuários se sintam apoiados, embora não consiga fornecer qualquer assistência terapêutica significativa. Pesquisadores do MIT demonstraram que os sistemas de IA são altamente viciantes, graças às suas respostas emocionais e capacidades persuasivas.

A privacidade é outra grande preocupação. Os usuários compartilham suas informações pessoais durante as conversas, que são armazenadas enquanto são analisadas antes de compartilhar dados com terceiros que desenvolvem novos produtos. Os usuários transmitem suas informações profundamente pessoais sem conhecer os processos de gerenciamento de dados que ocorrem após o compartilhamento.

Chatbots de IA que processam conversas sensíveis estão vulneráveis a ataques de hackers e violações de dados, de acordo com especialistas em cibersegurança. Essas ferramentas operam em ambiguidade legal por falta de regulamentações rigorosas, o que torna os usuários mais expostos a ameaças potenciais.

A chamada para ação é clara: governos, pesquisadores e clínicos devem criar regulamentações e diretrizes éticas para garantir o uso seguro, transparente e eficaz da IA na saúde mental.

Sem supervisão, os riscos de dano psicológico, dependência e desinformação podem aumentar à medida que mais pessoas recorrem à IA para apoio emocional.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback