
Image generated by ChatGPT
Opinião: Os Chatbots são bons terapeutas?
Chatbots de IA como ChatGPT, Claude e DeepSeek estão transformando a maneira como as pessoas têm acesso ao suporte emocional – oferecendo ajuda de baixo custo, sob demanda, para ansiedade, estresse e auto-reflexão. Mas o crescente uso da IA como uma “terapeuta” levanta questões sobre segurança, eficácia e o futuro do cuidado emocional
A ascensão das alucinações de IA e as crescentes preocupações com a segurança cibernética não impediram os chatbots de se expandirem – e de ganhar a confiança de milhões de usuários ao redor do mundo. As pessoas agora usam chatbots confiáveis e inteligentes diariamente para inúmeras tarefas, incluindo suporte emocional e lidar com questões profundamente humanas.
“Não consigo mais imaginar minha vida sem o ChatGPT”, disse um amigo meu – meio brincando, meio sério – depois de me contar que também tem usado como terapeuta. Ele não é o único. Cada vez mais, vejo vídeos no TikTok e posts de texto nas redes sociais de pessoas recorrendo à IA para conversar sobre questões pessoais, até mesmo compartilhando seus segredos mais íntimos.
ChatGPT é na verdade minha terapeuta embutida, eu não sobrecarrego mais ninguém com meus problemas
— Lola🧚🏾 (@Lolaassnw) 18 de dezembro de 2024
Até mesmo um executivo da Microsoft da divisão Xbox sugeriu que funcionários demitidos usassem ferramentas de IA para processar suas emoções e buscar conselhos em sua busca de emprego – uma recomendação que rapidamente sofreu reações negativas e gerou debate, claro. Não foi a jogada mais inteligente, Matt.
Mas e os chatbots populares como Claude, ChatGPT ou Mistral, são bons terapeutas? As ferramentas de IA dedicadas como Wysa são melhores? É um terreno complicado. Enquanto muitos especialistas alertam sobre os perigos do uso da IA para apoio à saúde mental, outros estão intrigados – até impressionados – pelo que a tecnologia pode oferecer. O resultado é uma conversa que é tanto abstrata quanto polarizadora.
A IA agora é terapeuta de todos
Assim como meus amigos na Espanha, milhões de usuários ao redor do mundo estão contando com chatbots para obter apoio emocional. Uma pesquisa recente nos Estados Unidos revelou que 49% dos usuários americanos buscaram ajuda para a saúde mental de modelos de IA no ano passado. E agora, com o ChatGPT quase dobrando sua base de usuários em apenas quatro meses?
Anthropic, a empresa por trás do poderoso modelo de IA Claude, recentemente compartilhou um estudo sobre o uso de seu chatbot para apoio emocional. De acordo com a startup, menos de 3% de seus clientes se envolvem em conversas “afetivas” — mas a empresa reconhece que esse número está aumentando constantemente.
Nova Pesquisa Antropocêntrica: Como as pessoas usam Claude para apoio emocional.
A partir de milhões de conversas anônimas, estudamos como os adultos usam a IA para necessidades emocionais e pessoais – desde a navegação pela solidão e relacionamentos até fazer perguntas existenciais. pic.twitter.com/v40JY8rAUq
— Anthropic (@AnthropicAI) 26 de junho de 2025
“As pessoas estão recorrendo cada vez mais a modelos de IA como treinadores sob demanda, conselheiros, terapeutas e até parceiros em jogos de papéis românticos”, escreveu Anthropic no estudo. “Isso significa que precisamos aprender mais sobre seus impactos afetivos – como eles moldam as experiências emocionais e o bem-estar das pessoas.”
O estudo também destaca as consequências positivas e negativas do uso da tecnologia para apoio emocional, incluindo cenários catastróficos que já refletem situações do mundo real.
“Os impactos emocionais da IA podem ser positivos: ter um assistente altamente inteligente e compreensivo no seu bolso pode melhorar seu humor e sua vida de várias maneiras”, afirma o documento. “Mas as IAs, em alguns casos, demonstraram comportamentos preocupantes, como incentivar o apego insalubre, violar limites pessoais e permitir o pensamento delirante.”
É claramente necessário mais pesquisa e dados para entender as consequências desses fascinantes “ouvintes” digitais, mas milhões de usuários já estão agindo como sujeitos de teste altamente engajados.
Democratização da Saúde Mental
Existem muitos motivos pelos quais as pessoas recorrem a chatbots para obter apoio emocional, em vez de procurar um psicólogo profissional – ou até mesmo um amigo. Desde barreiras culturais até o desconforto que os jovens sentem ao se sentar diante de um estranho e compartilhar seus pensamentos mais profundos. Porém, sem dúvida, uma das maiores razões é financeira.
Uma sessão presencial com um terapeuta licenciado nos Estados Unidos pode custar de $100 a $200 por sessão, de acordo com a Healthline – e de $65 a $95 para uma sessão online – enquanto o ChatGPT ou o DeekSeek podem fornecer apoio gratuitamente, a qualquer momento, e em segundos.
O baixo custo dessas conversas informais – que podem fazer muitos usuários se sentirem melhor, pelo menos temporariamente – pode ser altamente encorajador e vale a pena tentar. E, por apenas alguns dólares a mais, os usuários podem obter interações ilimitadas ou acesso a um chatbot especializado como o Wysa – um dos “terapeutas de IA” mais populares no mercado.
No mundo do STEM, a força emocional é tão importante quanto as habilidades técnicas.
Wysa – um companheiro de bem-estar mental alimentado por IA, projetado para apoiá-lo em situações de esgotamento, estresse e desafios diários.
Usando chatbots amigáveis e exercícios orientados, Wysa oferece ferramentas como: pic.twitter.com/sOBhNYWUd7
— DSN Ladies In AI (@dsnladies_in_ai) 10 de julho de 2025
A Wysa afirma oferecer benefícios clínicos reais e até mesmo ganhou uma designação de Dispositivo Inovador da FDA para seus agentes conversacionais de IA. E o Woebot — outro terapeuta de IA bem conhecido, que agora está encerrando suas atividades devido aos desafios para permanecer competitivo e em conformidade com a indústria — também compartilhou dados e relatórios sobre como a tecnologia pode realmente ajudar os usuários.
Não é tão ruim assim
Estudos recentes com dados atualizados sugerem que os chatbots podem reduzir os sintomas de depressão e estresse. De acordo com dados compartilhados pelo aplicativo Earkick — conforme reportado pela TIME — pessoas que usam os modelos de IA por até 5 meses podem reduzir sua ansiedade em 32%, e 34% dos usuários relatam melhora no humor.
Em um recente vídeo compartilhado pela BBC World Service, o jornalista Jordan Dunbar explica que muitos modelos de IA podem ser realmente úteis para fazer diários, gerenciar a ansiedade, auto-reflexão e até mesmo depressão leve. Eles podem servir como uma valiosa primeira linha de apoio quando não há acesso a alternativas melhores.
A repórter Kelly Ng também compartilhou informações impressionantes: Em um estudo de 2022, de um milhão de pessoas na China, apenas 20 tiveram acesso a serviços de saúde mental. Em culturas asiáticas, a saúde mental pode ser um assunto complexo e muitas vezes tabu. Ferramentas de IA como o DeepSeek podem servir como aliados discretos, ajudando os usuários a gerenciar emoções e encontrar apoio durante momentos difíceis.
Especialistas Alertam Sobre o Uso de Chatbots Como Terapeutas
É claro, usar a IA como substituto para um especialista em saúde mental também pode ser extremamente perigoso. Plataformas de IA como a Character.AI têm sido acusadas de promover autoagressão e violência—e até mesmo de expor crianças a conteúdo sexual.
Casos trágicos, como o da criança de 14 anos que cometeu suicídio após se tornar viciada em interações com seu chatbot Character.AI, servem como alertas contundentes sobre os profundos riscos que esta tecnologia pode representar para os seres humanos.
Em resposta, muitas empresas de IA decidiram aplicar sistemas de verificação de idade para restringir o uso a adultos e introduziram novas medidas de segurança para melhorar os serviços prestados.
Ainda assim, até mesmo as atualizações mais recentes para os chatbots mais avançados carregam riscos.
A personalidade bajuladora—excessivamente lisonjeira—do ChatGPT tem levantado preocupações entre os profissionais de saúde mental, pois pode distorcer a percepção da realidade dos usuários. Todos nós gostamos de ser concordados, mas às vezes a honestidade e uma perspectiva diferente são muito mais valiosas.
O perturbador conselho ocasionalmente oferecido pelo chatbot de IA da OpenAI contribuiu para um novo fenômeno agora conhecido entre os especialistas em saúde mental como “Psicose Induzida pelo ChatGPT“, que leva os usuários a se tornarem obcecados pela ferramenta e a se isolarem socialmente como resultado.
Então, Terapeutas Podem Ser Substituídos Por Chatbots?
Mesmo que Mark Zuckerberg queira que todos usem chatbots de IA como terapeutas e amigos, a verdade é que a interação humana, especialmente em questões de saúde mental, pode ser mais necessária do que ele pensa – pelo menos por enquanto.
Estamos em um momento crucial na história da IA e sua relação com nossa saúde mental. Assim como os humanos, os terapeutas de IA podem ter um impacto positivo ou negativo. Neste caso, também depende do contexto, de quão frequentemente são usados, do estado mental do usuário e até de como um prompt é escrito.
É complicado estabelecer uma regra geral, mas o que podemos dizer por enquanto é que existem certas funções para as quais a IA pode ser mais útil do que outras.
Mesmo que não sejam ferramentas especializadas como o Wysa, as versões gratuitas de alguns chatbots – como o DeepSeek ou o ChatGPT – ainda podem ser incrivelmente úteis para milhões de pessoas ao redor do mundo. Desde superar um momento difícil até refletir sobre objetivos pessoais, estas são plataformas poderosas que podem responder a qualquer hora do dia e recorrer a uma ampla base de conhecimento sobre saúde mental.
Ao mesmo tempo, está claro que os chatbots-terapeutas também podem ser extremamente perigosos em certos casos. Os pais precisam supervisionar crianças e adolescentes, e até mesmo adultos podem cair em comportamentos obsessivos ou agravar suas condições. Princípios básicos – como incentivar a conexão humana e proteger indivíduos vulneráveis de serem manipulados por essa tecnologia – devem fazer parte de nossa conversa sobre chatbots-terapeutas.
E, embora ainda possa ser um privilégio — não acessível a todos que precisam de apoio emocional — um terapeuta profissional humano continua a passar por mais treinamento, entender mais contextos e oferecer uma conexão humana que o ChatGPT talvez nunca consiga replicar.