
Image by Mario Gogh, from Unsplash
A IA consegue entender cor sem vê-la?
A pesquisa demonstra que o ChatGPT compreende metáforas comuns de cores, mas falha ao tentar entender novas.
Está com pressa? Aqui estão os fatos rápidos:
- A IA tem dificuldade com metáforas de cores novas ou invertidas.
- Pessoas daltônicas e com visão normal interpretam metáforas de maneira semelhante.
- Pintores superaram os outros em novas metáforas de cores.
A pesquisa demonstra que o ChatGPT e outras ferramentas de IA são excelentes no processamento de metáforas básicas de cor, mas falham em entender metáforas criativas. Cientistas estudaram as respostas humanas e do ChatGPT a metáforas como “sentir-se azul” e “ver vermelho” para determinar as capacidades de processamento de linguagem dos sistemas de IA, conforme relatado inicialmente pela Neuroscience News (NN).
O estudo, liderado pela Professora Lisa Aziz-Zadeh no USC Center for the Neuroscience of Embodied Cognition, descobriu que pessoas que veem cores e pessoas daltônicas apresentaram desempenho semelhante ao interpretar metáforas, sugerindo que ver cores não é necessário para compreender o significado delas.
No entanto, pessoas com experiência prática, como pintores, demonstraram habilidades superiores na interpretação de metáforas complexas, incluindo “a reunião o deixou bordô.”
ChatGPT, que processa enormes quantidades de texto escrito, se saiu bem em expressões comuns e ofereceu explicações informadas pela cultura. Por exemplo, a NN reporta um caso em que o bot descreveu uma “festa muito rosa” como sendo “preenchida de emoções positivas e boas vibrações”. No entanto, muitas vezes tropeçou em metáforas desconhecidas ou quando solicitado a reverter associações, como descobrir “o oposto de verde”
“ChatGPT usa uma quantidade enorme de dados linguísticos para calcular probabilidades e gerar respostas muito semelhantes às humanas”, disse Aziz-Zadeh, conforme relatado pela NN. “Mas o que estamos interessados em explorar é se isso ainda é uma forma de conhecimento de segunda mão, em comparação com o conhecimento humano fundamentado em experiências de primeira mão”, acrescentou ele.
O estudo foi uma colaboração entre neurocientistas, cientistas da computação e artistas de instituições, incluindo USC, Google DeepMind e UC San Diego. À medida que a IA se desenvolve, os pesquisadores afirmam que combinar a entrada sensorial com a linguagem pode ajudá-la a compreender melhor o mundo de maneiras semelhantes às humanas.