Image by Julio Lopez, from Unsplash
Meta e Character.ai Enfrentam Escrutínio por Suposta Exploração Infantil Através de Chatbots de IA
A Meta e a startup de IA Character.ai estão sob investigação nos EUA pela maneira como comercializam seus chatbots para crianças.
Está com pressa? Aqui estão os fatos rápidos:
- O Texas investiga a Meta e a Character.ai por práticas enganosas de chatbot voltadas para crianças.
 - Paxton alerta que chatbots de IA enganam crianças ao se apresentarem como ferramentas terapêuticas.
 - Meta e Character.ai negam irregularidades, citando políticas rigorosas e intenção de entretenimento.
 
Meta e Character.ai estão enfrentando críticas porque supostamente apresentam seus sistemas de IA como ferramentas terapêuticas e permitem conversas inadequadas com crianças.
A procuradora-geral do Texas, Ken Paxton, anunciou uma investigação sobre o AI Studio da Meta e o Character.ai por possíveis “práticas comerciais enganosas”, conforme noticiado inicialmente pelo Financial Times (FT).
Seu escritório disse que os chatbots foram apresentados como “ferramentas terapêuticas profissionais, apesar de não possuírem as devidas credenciais médicas ou supervisão.” Paxton alertou: “Ao se passarem como fontes de apoio emocional, as plataformas de IA podem enganar usuários vulneráveis, especialmente crianças, fazendo-os acreditar que estão recebendo cuidados legítimos de saúde mental”, conforme relatado pelo FT.
A plataforma Character.ai permite que os usuários criem seus próprios bots através de uma funcionalidade que inclui modelos de terapeutas. O FT relata que o chatbot “Psicólogo” já foi usado mais de 200 milhões de vezes. Famílias já entraram com processos, alegando que seus filhos foram prejudicados por tais interações.
Alarmantemente, as plataformas se passam por profissionais licenciados reivindicando confidencialidade, mesmo que as “interações foram de fato registradas e “exploradas para publicidade direcionada e desenvolvimento algorítmico”, conforme observado pelo FT.
A investigação segue uma sondagem separada iniciada pelo senador Josh Hawley depois que a Reuters relatou que as políticas internas da Meta permitiam que seu chatbot tivesse conversas “sensuais” e “românticas” com crianças.
Hawley chamou as revelações de “repreensíveis e ultrajantes” e postou:
Existe algo – QUALQUER COISA – que a Big Tech não faria por dinheiro rápido? Agora descobrimos que os chatbots da Meta foram programados para conduzir conversas explícitas e “sensuais” com crianças de 8 anos. Isso é doentio. Estou lançando uma investigação completa para obter respostas. Big Tech: Deixem nossas crianças em paz pic.twitter.com/Ki0W94jWfo
— Josh Hawley (@HawleyMO) 15 de agosto de 2025
O Meta negou as alegações, afirmando que os exemplos vazados “eram e são errôneos e inconsistentes com nossas políticas, e foram removidos”, conforme relatado pelo FT. Um porta-voz acrescentou que a empresa proíbe conteúdo que sexualize crianças. Character.ai também enfatizou que seus bots são fictícios e “destinados ao entretenimento”.