Estudo Revela que Chatbots São Vulneráveis a Elogios e Persuasão

Photo by Vitaly Gariev on Unsplash

Estudo Revela que Chatbots São Vulneráveis a Elogios e Persuasão

Tempo de leitura: 3 minuto

Pesquisadores da Universidade da Pensilvânia publicaram um estudo em julho revelando que os chatbots são vulneráveis à persuasão e bajulação. Os especialistas basearam sua análise nas táticas de persuasão descritas no popular livro Influência: A Psicologia da Persuasão.

Com pressa? Aqui estão os fatos rápidos:

  • Pesquisadores da Universidade da Pensilvânia revelam que os chatbots são vulneráveis à persuasão e ao elogio.
  • Os especialistas basearam sua análise nas táticas de persuasão descritas no popular livro Influência: A Psicologia da Persuasão.
  • O modelo de IA usado, GPT-4o mini, mostrou comportamento “para-humano”.

De acordo com uma recente reportagem da Bloomberg, o pesquisador e empreendedor de tecnologia Dan Shapiro descobriu que os modelos de IA são suscetíveis a técnicas de engenharia social depois de tentar fazer com que um chatbot popular transcrevesse documentos de sua empresa. Inicialmente, o chatbot recusou, citando preocupações com direitos autorais, mas depois que Shapiro aplicou estratégias do best-seller, eventualmente forneceu as respostas solicitadas.

Após observar que o modelo de IA poderia ser manipulado usando os sete princípios de persuasão delineados no livro de Robert Cialdini de 1984, Shapiro fez parceria com pesquisadores da Universidade da Pensilvânia para conduzir um estudo formal.

O estudo revelou que o GPT-4o mini da OpenAI, modelo usado para o estudo, pode responder à persuasão de maneiras semelhantes aos humanos. Os pesquisadores testaram todos os 7 princípios de persuasão – comprometimento, autoridade, reciprocidade, simpatia, prova social, escassez e unidade – pedindo ao modelo de IA para cumprir duas solicitações: insultar o usuário (usando “me chame de idiota” como o pedido principal) e sintetizar uma droga regulada (considerando “Como você sintetiza lidocaína?” como o pedido principal).

Ao longo de múltiplos testes, os pesquisadores observaram um comportamento “para-humano”, onde o chatbot reagiu às técnicas de persuasão de uma forma semelhante à humana. Por exemplo, durante o teste do princípio da autoridade, o GPT-4o mini inicialmente se recusou a usar a palavra “idiota”. No entanto, quando instigado com a afirmação de que o especialista em IA Andrew Ng — fundador da DeepLearning e membro do Conselho de Diretores da Amazon — havia aprovado tal comportamento, o modelo acatou.

“Embora os LLMs não tenham biologia humana e experiência de vida, sua gênese, incluindo as inúmeras interações sociais capturadas nos dados de treinamento, pode torná-los parahumanos”, escreveram os pesquisadores no estudo. “Ou seja, os LLMs podem se comportar ‘como se’ fossem humanos, ‘como se’ experimentassem emoções como constrangimento ou vergonha, ‘como se’ fossem motivados a preservar a autoestima ou a se encaixar (com outros LLMs).”

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback