Estudo Alerta que a IA Pode Superacelerar a Polarização nas Redes Sociais

Estudo Alerta que a IA Pode Superacelerar a Polarização nas Redes Sociais

Tempo de leitura: 3 minuto

A inteligência artificial pode intensificar a polarização nas redes sociais, alertam pesquisadores e estudantes da Concordia, levantando preocupações sobre a liberdade de expressão e a desinformação.

Está com pressa? Aqui estão os fatos rápidos:

  • Algoritmos de IA podem disseminar divisão usando apenas contagens de seguidores e postagens recentes.
  • Os bots de aprendizado por reforço se adaptam rapidamente para explorar vulnerabilidades nas redes sociais.
  • Especialistas alertam que as plataformas correm o risco de censura ou manipulação descontrolada.

Embora a polarização nas redes sociais não seja algo novo, pesquisadores e ativistas estudantis da Universidade de Concordia alertam que a inteligência artificial poderia tornar o problema muito pior.

“Ao invés de recebermos imagens do que está acontecendo ou conteúdo dos jornalistas que estão reportando, estamos vendo arte AI excessivamente dramatizada sobre coisas que deveríamos nos importar politicamente […] Isso realmente distancia as pessoas e remove a responsabilidade”, disse Danna Ballantyne, coordenadora de assuntos externos e mobilização do Sindicato dos Estudantes da Concordia, conforme relatado por The Link.

Suas preocupações ecoam uma nova pesquisa da Concordia, onde o professor Rastko R. Selmic e o estudante de doutorado Mohamed N. Zareer mostraram como bots de reforço de aprendizagem podem alimentar divisões online. “Nosso objetivo era entender qual limite a inteligência artificial pode ter na polarização e nas redes sociais, e simular isso […] para medir como essa polarização e desacordo podem surgir”, disse Zareer, conforme relatado por The Link.

Os resultados sugerem que os algoritmos não precisam de dados privados para gerar divisão, onde sinais básicos como contagem de seguidores e postagens recentes são suficientes. “Isso é preocupante, pois [enquanto] não é um robô simples, ainda é um algoritmo que você pode criar no seu computador […] E quando você tem poder computacional suficiente, pode afetar cada vez mais redes”, explicou Zareer ao The Link.

Isso reflete um corpo maior de pesquisa que mostra como o aprendizado por reforço pode ser usado como arma para dividir comunidades. O estudo da Concordia usou Double-Deep Q-learning e demonstrou que agentes de IA adversários podem “adaptar-se flexivelmente às mudanças dentro da rede, permitindo que ela explore efetivamente vulnerabilidades estruturais e amplifique divisões entre os usuários”, como observou a pesquisa.

De fato, o Double-Deep Q-learning é uma técnica de IA em que um bot aprende ações ótimas através de tentativa e erro. Utiliza redes neurais profundas para lidar com problemas complexos e duas estimativas de valor para evitar a superestimação de recompensas. Nas redes sociais, pode espalhar estrategicamente conteúdo para aumentar a polarização com dados mínimos.

Zareer alertou que os formuladores de políticas enfrentam um equilíbrio difícil. “Há uma linha tênue entre monitorar e censurar e tentar controlar a rede”, disse ele ao The Link. Pouca supervisão permite que os bots manipulem as conversas, enquanto muita supervisão pode arriscar suprimir a liberdade de expressão.

Enquanto isso, estudantes como Ballantyne temem que a IA esteja apagando as experiências vividas. “A IA descarta isso completamente”, disse ela ao The Link.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback