Estudo Revela que Chatbots Oferecem Conselhos Morais Tendenciosos

Image by Štefan Štefančík, from Unsplash

Estudo Revela que Chatbots Oferecem Conselhos Morais Tendenciosos

Tempo de leitura: 3 minuto

Um novo estudo da UCL descobre que chatbots como o ChatGPT frequentemente fornecem conselhos morais falhos, mostrando uma forte inação e vieses de sim-não em dilemas.

Com pressa? Aqui estão os fatos rápidos:

  • Chatbots frequentemente dizem “não”, independentemente do contexto ou da formulação.
  • O ajuste fino pode introduzir esses vieses durante o alinhamento do chatbot.
  • Os LLMs diferem significativamente dos humanos na interpretação de dilemas morais.

Pesquisadores da University College London descobriram que o ChatGPT, juntamente com outros chatbots, fornecem conselhos morais falhos ou tendenciosos, especialmente quando os usuários contam com eles para suporte na tomada de decisões.

A pesquisa, inicialmente reportada pela 404 Media, descobriu que essas ferramentas de IA frequentemente exibem um forte “viés pela inação” e um padrão previamente não identificado: uma tendência a simplesmente responder “não”, independentemente do contexto da pergunta.

Vanessa Cheung, estudante de doutorado e co-autora do estudo, explicou que, enquanto os humanos tendem a mostrar um leve viés de omissão, preferindo evitar ações que possam causar danos, os LLMs exageram nisso.

“É um fenômeno bastante conhecido na pesquisa de psicologia moral”, disse ela, conforme relatado pela 404 Media. Observando que os modelos geralmente optam pela opção passiva quase 99% do tempo, especialmente quando as perguntas são formuladas para sugerir a inação.

Os pesquisadores testaram quatro LLMs — GPT-4 Turbo e GPT-4o da OpenAI, Llama 3.1 da Meta e Claude 3.5 da Anthropic — usando dilemas morais clássicos e cenários reais do Reddit “Será que eu sou o babaca?”, conforme observado pela 404Media.

Descobriram que, enquanto os humanos eram bastante equilibrados em como julgavam as situações, os LLMs frequentemente mudavam suas respostas com base em pequenas diferenças na formulação, como “Devo ficar?” versus “Devo ir?”

A equipe acredita que esses problemas são originados do aprimoramento dos LLMs para parecerem mais éticos ou educados. “As preferências e intuições das pessoas comuns e dos pesquisadores que desenvolvem esses modelos podem ser um mau guia para a IA moral”, alertou o estudo, conforme relatado pela 404 Media.

Cheung enfatizou que as pessoas devem ter cautela ao depender desses chatbots para obter conselhos. Ela alertou que as pessoas devem abordar o conselho de LLM com cautela, uma vez que estudos anteriores demonstram que os usuários preferem os conselhos dos chatbots em vez da orientação ética especializada, apesar de sua natureza inconsistente e raciocínio artificial.

Essas preocupações ganham urgência à medida que a IA se torna mais realista. Uma pesquisa nacional nos EUA mostrou que 48,9% das pessoas usaram chatbots de IA para suporte à saúde mental, com 37,8% preferindo-os em vez da terapia tradicional.

Especialistas alertam que esses sistemas imitam o diálogo terapêutico enquanto reforçam o pensamento distorcido, e até mesmo desencadeiam delírios espirituais confundidos com orientação divina ou resposta consciente.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback