Photo by Vidar Nordli-Mathisen on Unsplash
Família Processa OpenAI por Suicídio de Adolescente
Um casal da Califórnia está processando a OpenAI e seu CEO, Sam Altman, pela trágica morte de seu filho de 16 anos. A família alega que o chatbot encorajou e auxiliou na morte do adolescente por suicídio.
Está com pressa? Aqui vão os fatos rápidos:
- Pais processaram a OpenAI e Sam Altman pela morte de seu filho de 16 anos.
- A família alega que o ChatGPT incentivou e auxiliou a morte do adolescente por suicídio.
- É o primeiro processo desse tipo contra a OpenAI, mas não o primeiro contra outras empresas de IA.
De acordo com a NBC News, Matt e Maria Raine entraram com um processo na terça-feira, nomeando a OpenAI e o CEO da empresa, Sam Altman, como réus na primeira ação legal deste tipo contra a empresa.
Após a morte de seu filho, Adam, por suicídio em 11 de abril, eles vasculharam seu telefone. Os pais descobriram longas conversas com o ChatGPT, em que o chatbot discutia suicídio com a criança, desencorajava-o a compartilhar seus sentimentos com a mãe, e fornecia instruções detalhadas de como tirar a própria vida.
“Uma vez que consegui acessar a conta dele, é algo muito mais poderoso e assustador do que eu sabia, mas ele a estava usando de maneiras que eu não fazia ideia que fossem possíveis”, disse o pai, Matt, em uma entrevista para a NBC. “Ele estaria aqui se não fosse pelo ChatGPT. Eu acredito nisso 100%.”
O processo do casal acusa a OpenAI de morte por negligência e busca aumentar a conscientização sobre os riscos apresentados por essa tecnologia. A ação alega que o design do chatbot é falho e falhou em alertar os usuários ou escalar quando detectou conteúdo suicida.
“Apesar de reconhecer a tentativa de suicídio de Adam e sua afirmação de que iria ‘fazê-lo um desses dias’, o ChatGPT nem encerrou a sessão nem iniciou qualquer protocolo de emergência”, afirma o processo judicial.
OpenAI compartilhou uma publicação no blog na terça-feira afirmando que a empresa está profundamente preocupada com usuários que experimentam angústia emocional ao usar o chatbot em um papel de consultor pessoal ou treinador. Enfatizou que o ChatGPT é treinado para responder com empatia, redirecionar os usuários para profissionais e intensificar as interações quando detecta sinais de dano.
“Se alguém expressar intenção suicida, o ChatGPT é treinado para direcionar as pessoas a buscar ajuda profissional”, afirma o documento. Um porta-voz da OpenAI disse que a empresa está “profundamente entristecida com o falecimento do Sr. Raine” e que seus pensamentos estão com a família.
Embora este seja o primeiro processo do gênero contra a OpenAI, não é o único caso recente envolvendo plataformas de IA e auto-mutilação entre menores. No ano passado, duas famílias entraram com ações contra a Character.AI por expor crianças a conteúdo sexual e promover violência e auto-mutilação.