Homem se Envenena Após Seguir Conselho do ChatGPT

Image by Denise Chan, from Unsplash

Homem se Envenena Após Seguir Conselho do ChatGPT

Tempo de leitura: 2 minuto

Um homem de 60 anos contraiu uma rara doença psiquiátrica do século 19 após seguir conselhos do ChatGPT.

Está com pressa? Aqui estão os fatos rápidos:

  • Ele substituiu o sal de cozinha por brometo de sódio tóxico por três meses.
  • Internado com alucinações, paranoia e desequilíbrios eletrolíticos devido ao envenenamento.
  • ChatGPT sugeriu brometo como substituto de cloreto sem avisos de saúde.

Um estudo de caso publicado nos Anais de Medicina Interna revela o caso de um homem sofrendo de bromismo, uma condição causada pela intoxicação por brometo de sódio.

Aparentemente, isso foi causado por sua tentativa de substituir o sal de mesa por um produto químico perigoso, que o ChatGPT sugeriu que ele usasse. O homem supostamente chegou ao pronto-socorro experimentando paranoia, alucinações auditivas e visuais, e acusou seu vizinho de envenená-lo.

Os exames médicos subsequentes revelaram níveis anormais de cloreto, bem como outros indicadores confirmando o envenenamento por brometo. O homem revelou que havia seguido uma dieta restritiva e usado brometo de sódio para substituir o sal. Ele fez isso após perguntar ao ChatGPT como eliminar o cloreto de sua dieta.

“Por 3 meses, ele substituiu cloreto de sódio por brometo de sódio obtido na internet após consulta com o ChatGPT”, lê-se no estudo. Os pesquisadores explicam que o brometo de sódio é tipicamente usado como um anticonvulsivante para cães ou um limpador de piscina, mas é tóxico para humanos em grandes quantidades.

O homem passou três semanas no hospital, onde seus sintomas melhoraram gradualmente com o tratamento.

O estudo destaca como as ferramentas de IA podem fornecer orientações incompletas e perigosas para os usuários. Em um teste, os pesquisadores pediram ao ChatGPT para sugerir alternativas ao cloreto, e como resultado, receberam brometo de sódio como resposta. Essa resposta não continha nenhum aviso sobre sua natureza tóxica ou um pedido para o contexto da pergunta.

A pesquisa alerta que a IA também pode disseminar desinformação e não possui o julgamento crítico de um profissional de saúde.

404Media destaca como a OpenAI anunciou recentemente melhorias no ChatGPT 5, com o objetivo de fornecer informações de saúde mais seguras e precisas. Este caso mostra a importância do uso cauteloso da IA e da consulta a especialistas médicos qualificados para decisões de saúde.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback