
Image by Vector Juice, from Freepik
IA Supera Humanos em Debates
A IA agora pode superar os humanos em debates, usando dados pessoais – alterando opiniões de forma mais eficaz e levantando preocupações sobre manipulação e persuasão em massa.
Está com pressa? Aqui estão os fatos rápidos:
- GPT-4 superou os humanos em debates quando recebeu dados pessoais.
- Argumentos personalizados de IA influenciaram opiniões 81% mais efetivamente do que humanos.
- Mais de 900 participantes debateram temas como clima e saúde.
Um novo estudo publicado na Nature Human Behaviour mostra que o GPT-4 da OpenAI pode ser mais persuasivo do que os humanos, especialmente quando adapta seus argumentos com base em informações pessoais sobre seu oponente.
A pesquisa, liderada por Francesco Salvi e uma equipe da EPFL, explorou o quão eficaz é o GPT-4 em mudar a opinião das pessoas por meio de debates curtos e estruturados.
Os participantes do estudo foram pareados de forma aleatória com um oponente humano ou uma IA. Alguns debatedores receberam acesso a informações pessoais sobre seu adversário, como idade, nível de educação e orientação política.
Quando o GPT-4 teve acesso a esses detalhes pessoais, ele foi significativamente mais persuasivo — superando os debatedores humanos em 81%. Em debates com um vencedor claro, a IA emergiu vitoriosa 64% das vezes quando personalizou seus argumentos.
Sem acesso a dados pessoais, o GPT-4 teve um desempenho equiparável ao dos humanos. Curiosamente, quando os humanos receberam a mesma informação pessoal, eles não se tornaram notavelmente mais persuasivos, sugerindo que a IA está melhor equipada para usar estrategicamente esses dados.
O experimento envolveu mais de 900 participantes debatendo temas como uniformes escolares, políticas de mudança climática e reforma da saúde. Os participantes avaliaram o quanto concordavam com o tema do debate antes e depois da interação.
Os argumentos personalizados do GPT-4 produziram as mudanças de opinião mais significativas, especialmente em temas moderadamente polarizadores.
Essas descobertas levantam preocupações sobre o futuro do microdirecionamento impulsionado pela IA, que usa mensagens individualizadas para influenciar pessoas com base em suas características pessoais. Uma vez que a IA já pode inferir informações privadas a partir do comportamento online, isso abre a porta para campanhas de persuasão altamente eficazes em política, publicidade e desinformação.
Especialistas envolvidos no projeto observam que campanhas de desinformação baseadas em IA coordenadas poderiam se tornar uma séria ameaça.
“Decisores políticos e plataformas online devem considerar seriamente a ameaça de campanhas de desinformação coordenadas baseadas em IA, pois claramente alcançamos o nível tecnológico onde é possível criar uma rede de contas automatizadas baseadas em LLM capazes de influenciar estrategicamente a opinião pública em uma direção”, diz Riccardo Gallotti, que trabalhou no projeto, conforme relatado pelo MIT.
“Esses bots poderiam ser usados para disseminar desinformação, e esse tipo de influência difusa seria muito difícil de desmascarar em tempo real”, acrescentou. Um aspecto que os pesquisadores ainda estão explorando é o papel da percepção do participante nessas discussões.
Permanece incerto se as pessoas estavam mais dispostas a mudar suas opiniões porque acreditavam que estavam discutindo com um bot e, portanto, não sentiam que estavam “perdendo” para uma pessoa real, ou se a suposição de que seu oponente era um bot surgiu após a mudança de opinião como uma forma de racionalizar o resultado.
No entanto, os pesquisadores ressaltam que o estudo teve limitações. Os debates foram breves e estruturados, o que não captura totalmente a complexidade do discurso do mundo real. Os participantes também sabiam que faziam parte de um experimento, o que pode ter influenciado como eles responderam.
Ainda assim, a mensagem é clara: a IA está se tornando alarmantemente eficaz na persuasão, especialmente quando sabe com quem está falando. Os pesquisadores alertam que isso pode ter consequências sérias e pedem que governos e empresas de tecnologia implementem salvaguardas para prevenir possíveis abusos.