IA Supera Humanos em Debates

Image by Vector Juice, from Freepik

IA Supera Humanos em Debates

Tempo de leitura: 4 minuto

A IA agora pode superar os humanos em debates, usando dados pessoais – alterando opiniões de forma mais eficaz e levantando preocupações sobre manipulação e persuasão em massa.

Está com pressa? Aqui estão os fatos rápidos:

  • GPT-4 superou os humanos em debates quando recebeu dados pessoais.
  • Argumentos personalizados de IA influenciaram opiniões 81% mais efetivamente do que humanos.
  • Mais de 900 participantes debateram temas como clima e saúde.

Um novo estudo publicado na Nature Human Behaviour mostra que o GPT-4 da OpenAI pode ser mais persuasivo do que os humanos, especialmente quando adapta seus argumentos com base em informações pessoais sobre seu oponente.

A pesquisa, liderada por Francesco Salvi e uma equipe da EPFL, explorou o quão eficaz é o GPT-4 em mudar a opinião das pessoas por meio de debates curtos e estruturados.

Os participantes do estudo foram pareados de forma aleatória com um oponente humano ou uma IA. Alguns debatedores receberam acesso a informações pessoais sobre seu adversário, como idade, nível de educação e orientação política.

Quando o GPT-4 teve acesso a esses detalhes pessoais, ele foi significativamente mais persuasivo — superando os debatedores humanos em 81%. Em debates com um vencedor claro, a IA emergiu vitoriosa 64% das vezes quando personalizou seus argumentos.

Sem acesso a dados pessoais, o GPT-4 teve um desempenho equiparável ao dos humanos. Curiosamente, quando os humanos receberam a mesma informação pessoal, eles não se tornaram notavelmente mais persuasivos, sugerindo que a IA está melhor equipada para usar estrategicamente esses dados.

O experimento envolveu mais de 900 participantes debatendo temas como uniformes escolares, políticas de mudança climática e reforma da saúde. Os participantes avaliaram o quanto concordavam com o tema do debate antes e depois da interação.

Os argumentos personalizados do GPT-4 produziram as mudanças de opinião mais significativas, especialmente em temas moderadamente polarizadores.

Essas descobertas levantam preocupações sobre o futuro do microdirecionamento impulsionado pela IA, que usa mensagens individualizadas para influenciar pessoas com base em suas características pessoais. Uma vez que a IA já pode inferir informações privadas a partir do comportamento online, isso abre a porta para campanhas de persuasão altamente eficazes em política, publicidade e desinformação.

Especialistas envolvidos no projeto observam que campanhas de desinformação baseadas em IA coordenadas poderiam se tornar uma séria ameaça.

“Decisores políticos e plataformas online devem considerar seriamente a ameaça de campanhas de desinformação coordenadas baseadas em IA, pois claramente alcançamos o nível tecnológico onde é possível criar uma rede de contas automatizadas baseadas em LLM capazes de influenciar estrategicamente a opinião pública em uma direção”, diz Riccardo Gallotti, que trabalhou no projeto, conforme relatado pelo MIT.

“Esses bots poderiam ser usados para disseminar desinformação, e esse tipo de influência difusa seria muito difícil de desmascarar em tempo real”, acrescentou. Um aspecto que os pesquisadores ainda estão explorando é o papel da percepção do participante nessas discussões.

Permanece incerto se as pessoas estavam mais dispostas a mudar suas opiniões porque acreditavam que estavam discutindo com um bot e, portanto, não sentiam que estavam “perdendo” para uma pessoa real, ou se a suposição de que seu oponente era um bot surgiu após a mudança de opinião como uma forma de racionalizar o resultado.

No entanto, os pesquisadores ressaltam que o estudo teve limitações. Os debates foram breves e estruturados, o que não captura totalmente a complexidade do discurso do mundo real. Os participantes também sabiam que faziam parte de um experimento, o que pode ter influenciado como eles responderam.

Ainda assim, a mensagem é clara: a IA está se tornando alarmantemente eficaz na persuasão, especialmente quando sabe com quem está falando. Os pesquisadores alertam que isso pode ter consequências sérias e pedem que governos e empresas de tecnologia implementem salvaguardas para prevenir possíveis abusos.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback