
Image by Dr. Frank Gaeth, from Wikimedia Commons
A Primeira-Ministra da Suécia Criticada por Usar o ChatGPT em Decisões Governamentais
O Primeiro Ministro sueco Ulf Kristersson enfrentou críticas após admitir que usou o ChatGPT para gerar ideias para decisões governamentais.
Está com pressa? Aqui estão os fatos rápidos:
- O primeiro-ministro sueco admite usar o ChatGPT para tomada de decisões políticas.
- Seu porta-voz afirma que nenhum dado sensível é compartilhado com as ferramentas de IA.
- Críticos dizem que o uso de IA no governo é perigoso e antidemocrático.
O Primeiro Ministro sueco Ulf Kristersson enfrenta crescente reação pública após revelar seu hábito de usar o ChatGPT e o LeChat para auxiliar no processo oficial de tomada de decisões.
“Eu uso bastante. Se não for por mais nada, então por uma segunda opinião”, disse Kristersson, conforme relatado pelo The Guardian. “O que os outros fizeram? E deveríamos pensar exatamente o oposto? Esses tipos de perguntas.”
Sua declaração provocou reações negativas, com o Aftonbladet acusando-o de sucumbir à “psicose da IA dos oligarcas”, conforme relatado pelo The Guardian. Os críticos argumentam que contar com a IA para julgamento político é tanto imprudente quanto antidemocrático.
“Devemos exigir que a confiabilidade possa ser garantida. Não votamos no ChatGPT”, disse Virginia Dignum, professora de IA responsável na Universidade de Umeå.
O porta-voz de Kristersson, Tom Samuelsson, minimizou a controvérsia, dizendo: “Naturalmente, não é informação sensível à segurança que acaba lá. É usado mais como uma estimativa”, conforme relatado pelo The Guardian.
Mas especialistas em tecnologia dizem que os riscos vão além da sensibilidade dos dados. Simone Fischer-Hübner, professora da Universidade Karlstad, aconselha contra o uso do ChatGPT e ferramentas similares para tarefas de trabalho oficiais, conforme observado pelo The Guardian.
O pesquisador de IA David Bau alertou que modelos de IA podem ser manipulados. “Eles mostraram uma maneira de as pessoas infiltrarem suas próprias agendas ocultas nos dados de treinamento que seriam muito difíceis de detectar.” Pesquisas mostram uma taxa de sucesso de 95% em enganar sistemas de IA usando injeção de memória ou ataques de “Rules File Backdoor“, aumentando os medos sobre interferência invisível na tomada de decisões políticas.
Riscos adicionais surgem do potencial da IA em corroer a democracia. Um recente estudo alerta que os sistemas de IA na aplicação da lei concentram poder, reduzem a supervisão e podem promover o autoritarismo.