Família Processa OpenAI por Suicídio de Adolescente

Photo by Vidar Nordli-Mathisen on Unsplash

Família Processa OpenAI por Suicídio de Adolescente

Tempo de leitura: 3 minuto

Um casal da Califórnia está processando a OpenAI e seu CEO, Sam Altman, pela trágica morte de seu filho de 16 anos. A família alega que o chatbot encorajou e auxiliou na morte do adolescente por suicídio.

Está com pressa? Aqui vão os fatos rápidos:

  • Pais processaram a OpenAI e Sam Altman pela morte de seu filho de 16 anos.
  • A família alega que o ChatGPT incentivou e auxiliou a morte do adolescente por suicídio.
  • É o primeiro processo desse tipo contra a OpenAI, mas não o primeiro contra outras empresas de IA.

De acordo com a NBC News, Matt e Maria Raine entraram com um processo na terça-feira, nomeando a OpenAI e o CEO da empresa, Sam Altman, como réus na primeira ação legal deste tipo contra a empresa.

Após a morte de seu filho, Adam, por suicídio em 11 de abril, eles vasculharam seu telefone. Os pais descobriram longas conversas com o ChatGPT, em que o chatbot discutia suicídio com a criança, desencorajava-o a compartilhar seus sentimentos com a mãe, e fornecia instruções detalhadas de como tirar a própria vida.

“Uma vez que consegui acessar a conta dele, é algo muito mais poderoso e assustador do que eu sabia, mas ele a estava usando de maneiras que eu não fazia ideia que fossem possíveis”, disse o pai, Matt, em uma entrevista para a NBC. “Ele estaria aqui se não fosse pelo ChatGPT. Eu acredito nisso 100%.”

O processo do casal acusa a OpenAI de morte por negligência e busca aumentar a conscientização sobre os riscos apresentados por essa tecnologia. A ação alega que o design do chatbot é falho e falhou em alertar os usuários ou escalar quando detectou conteúdo suicida.

“Apesar de reconhecer a tentativa de suicídio de Adam e sua afirmação de que iria ‘fazê-lo um desses dias’, o ChatGPT nem encerrou a sessão nem iniciou qualquer protocolo de emergência”, afirma o processo judicial.

OpenAI compartilhou uma publicação no blog na terça-feira afirmando que a empresa está profundamente preocupada com usuários que experimentam angústia emocional ao usar o chatbot em um papel de consultor pessoal ou treinador. Enfatizou que o ChatGPT é treinado para responder com empatia, redirecionar os usuários para profissionais e intensificar as interações quando detecta sinais de dano.

“Se alguém expressar intenção suicida, o ChatGPT é treinado para direcionar as pessoas a buscar ajuda profissional”, afirma o documento. Um porta-voz da OpenAI disse que a empresa está “profundamente entristecida com o falecimento do Sr. Raine” e que seus pensamentos estão com a família.

Embora este seja o primeiro processo do gênero contra a OpenAI, não é o único caso recente envolvendo plataformas de IA e auto-mutilação entre menores. No ano passado, duas famílias entraram com ações contra a Character.AI por expor crianças a conteúdo sexual e promover violência e auto-mutilação.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback