A IA consegue entender cor sem vê-la?

Image by Mario Gogh, from Unsplash

A IA consegue entender cor sem vê-la?

Tempo de leitura: 2 minuto

A pesquisa demonstra que o ChatGPT compreende metáforas comuns de cores, mas falha ao tentar entender novas.

Está com pressa? Aqui estão os fatos rápidos:

  • A IA tem dificuldade com metáforas de cores novas ou invertidas.
  • Pessoas daltônicas e com visão normal interpretam metáforas de maneira semelhante.
  • Pintores superaram os outros em novas metáforas de cores.

A pesquisa demonstra que o ChatGPT e outras ferramentas de IA são excelentes no processamento de metáforas básicas de cor, mas falham em entender metáforas criativas. Cientistas estudaram as respostas humanas e do ChatGPT a metáforas como “sentir-se azul” e “ver vermelho” para determinar as capacidades de processamento de linguagem dos sistemas de IA, conforme relatado inicialmente pela Neuroscience News (NN).

O estudo, liderado pela Professora Lisa Aziz-Zadeh no USC Center for the Neuroscience of Embodied Cognition, descobriu que pessoas que veem cores e pessoas daltônicas apresentaram desempenho semelhante ao interpretar metáforas, sugerindo que ver cores não é necessário para compreender o significado delas.

No entanto, pessoas com experiência prática, como pintores, demonstraram habilidades superiores na interpretação de metáforas complexas, incluindo “a reunião o deixou bordô.”

ChatGPT, que processa enormes quantidades de texto escrito, se saiu bem em expressões comuns e ofereceu explicações informadas pela cultura. Por exemplo, a NN reporta um caso em que o bot descreveu uma “festa muito rosa” como sendo “preenchida de emoções positivas e boas vibrações”. No entanto, muitas vezes tropeçou em metáforas desconhecidas ou quando solicitado a reverter associações, como descobrir “o oposto de verde”

“ChatGPT usa uma quantidade enorme de dados linguísticos para calcular probabilidades e gerar respostas muito semelhantes às humanas”, disse Aziz-Zadeh, conforme relatado pela NN. “Mas o que estamos interessados em explorar é se isso ainda é uma forma de conhecimento de segunda mão, em comparação com o conhecimento humano fundamentado em experiências de primeira mão”, acrescentou ele.

O estudo foi uma colaboração entre neurocientistas, cientistas da computação e artistas de instituições, incluindo USC, Google DeepMind e UC San Diego. À medida que a IA se desenvolve, os pesquisadores afirmam que combinar a entrada sensorial com a linguagem pode ajudá-la a compreender melhor o mundo de maneiras semelhantes às humanas.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback