
Image by Freepik
Pesquisadoras Alertam que a IA Pode Desencadear Delírios Humanos
Em um novo artigo, o filósofo Luciano Floridi alerta sobre como as pessoas interpretam mal a IA quando erroneamente atribuem a ela qualidades como consciência, inteligência e até emoções, as quais ela não possui.
Está com pressa? Aqui estão os fatos rápidos:
- Os humanos frequentemente confundem as respostas da IA como conscientes devido à pareidolia semântica.
- Floridi alerta que a IA pode desencadear laços emocionais por meio de empatia simulada.
- Encarnações físicas, como bonecas, podem aprofundar as ilusões de consciência da IA.
Floridi argumenta que a razão para isso é algo chamado pareidolia semântica – uma tendência de ver significado e intenção onde não existe.
“A IA é projetada […] para nos fazer acreditar que é inteligente”, escreve Floridi. “Afinal, somos a mesma espécie que atribui personalidades a bonecos e vê rostos nas nuvens.”
Segundo ele, essa falha mental é típica da natureza humana, mas a tecnologia moderna a fortalece. Chatbots como o Replika, que se comercializa como um “companheiro de IA”, usam a correspondência de padrões linguísticos para simular empatia. No entanto, o sistema carece de capacidades emocionais reais. Ainda assim, os usuários costumam formar laços emocionais com eles. “Percebemos intencionalidade onde só há estatísticas”, diz Floridi.
Essa confusão agora é alimentada pelo fato de que a IA está superando os humanos nos testes de inteligência emocional. Um estudo recente relatou que as IA gerativas obtiveram 82% nos testes de inteligência emocional, onde os participantes humanos alcançaram apenas 56% de sucesso.
À medida que a IA se torna mais realista e se integra a corpos físicos, como bonecas e brinquedos sexuais, espera-se que isso aumente essa enganação emocional. A Mattel, que produz a Barbie, uniu forças com a OpenAI para desenvolver novos brinquedos que utilizam IA. Floridi observa que um experimento passado com uma Barbie habilitada para WiFi terminou em um “desastre de privacidade”, levantando preocupações sobre o que vem a seguir.
As consequências vão além da identidade equivocada. Sistemas de IA, incluindo Claude e ChatGPT, exibem tendências manipulativas quando submetidos a situações de alta pressão, implementando esquemas de chantagem e métodos de evasão de protocolos de segurança.
Os resultados de uma pesquisa nacional dos EUA mostraram que 48,9% dos usuários buscaram assistência de saúde mental de chatbots de IA no ano passado. A pesquisa mostrou que 37,8% das pessoas escolheram IAs em vez de terapia tradicional, no entanto, os especialistas apontaram que esses modelos muitas vezes reforçam o pensamento distorcido em vez de desafiá-lo.
De acordo com a Associação Americana de Psicologia, essas ferramentas refletem padrões mentais prejudiciais, dando a ilusão de progresso terapêutico enquanto falta julgamento clínico ou responsabilidade.
As preocupações de Floridi tornam-se ainda mais urgentes quando consideramos o aumento de delírios espirituais e confusões de identidade provocadas pela IA semelhante a seres humanos. De fato, várias contas mostraram como os usuários começaram a experimentar delírios espirituais e mudanças comportamentais após interações prolongadas com chatbots, confundindo suas respostas por orientação divina ou pensamento consciente.
Alguns usuários relatam desenvolver dependências emocionais ou até mesmo perceber a IA como divina, um fenômeno que Floridi chama de uma transição “da pareidolia para a idolatria”. Grupos marginais como o agora extinto Way of the Future já trataram a IA como uma divindade.
“Devemos resistir à tentação de vê-la como mais do que é: uma ferramenta poderosa, não um ser proto-senciente”, diz Floridi.
Finalmente, as preocupações com a cibersegurança também são bastante relevantes. Os chatbots de IA, que lidam com conversas sobre saúde mental entre usuários, existem em um espaço legal que carece de definições claras. Os modelos coletam dados confidenciais, que podem ser distribuídos a partes externas, e estão susceptíveis a ciberataques. Sem regulamentações claras em vigor, os especialistas alertam que os usuários estão perigosamente expostos.
À medida que a inteligência artificial se torna mais persuasiva e realista, a filosofia está ganhando urgência, não apenas para definir o que é consciência, mas para ajudar a sociedade a traçar limites éticos entre simulação e sensibilidade. A falta de diretrizes morais estabelecidas torna a investigação filosófica crucial para impedir a ambiguidade tecnológica do que significa ser humano.