
Image by Julia Koblitz, from Unsplash
Controverso Artigo de IA Retirado Após Investigação do MIT
O Massachusetts Institute of Technology (MIT) diz que não apoia mais um artigo de pesquisa de AI de alto perfil escrito por um de seus ex-alunos de doutorado.
Está com pressa? Aqui estão os fatos rápidos:
- O MIT renegou um artigo de pesquisa sobre IA amplamente divulgado por um ex-aluno.
- O artigo afirmava que a IA impulsionou as descobertas em laboratório, mas diminuiu a satisfação dos cientistas.
- O MIT citou a falta de confiança nos dados e conclusões do artigo.
O artigo ganhou ampla atenção por afirmar que o uso de uma ferramenta de IA em um laboratório de ciência dos materiais resultou em mais descobertas, mas também fez os cientistas se sentirem menos satisfeitos com seu trabalho.
O MIT divulgou uma declaração na sexta-feira dizendo que “não tem confiança na procedência, confiabilidade ou validade dos dados e não tem confiança na veracidade da pesquisa contida no artigo.” A universidade não nomeou o estudante, citando leis de privacidade, mas o autor foi identificado pelo The Wall Street Journal (WSJ) como Aidan Toner-Rodgers. Ele não está mais no MIT.
Toner-Rodgers apresentou o artigo, intitulado “Inteligência Artificial, Descoberta Científica e Inovação de Produto”, em uma grande conferência de economia e o postou online no ano passado. Foi elogiado na época pelos economistas do MIT Daron Acemoğlu, que ganhou o Prêmio Nobel de 2024, e David Autor, que disse ter ficado “atônito” com as descobertas, conforme relatado anteriormente pelo WSJ.
Mas em janeiro, uma cientista da computação questionou a existência do laboratório e o funcionamento da ferramenta de IA. Incapazes de resolver as dúvidas, Acemoglu e Autor alertaram o MIT, que então conduziu uma revisão confidencial, conforme relatado pelo WSJ.
Após isso, a universidade solicitou que o artigo fosse removido tanto da revista acadêmica onde havia sido submetido quanto do site de pré-publicação público arXiv. O WSJ relatou que o MIT se recusou a especificar quais eram os erros do artigo, e disse que baseou essa decisão em “leis de privacidade do estudante e política do MIT.”
O MIT enfatizou que proteger a integridade da pesquisa é vital, dizendo que o artigo “deve ser retirado do discurso público” para evitar a disseminação de afirmações incorretas sobre o impacto da IA.
O incidente intensificou preocupações existentes sobre a aplicação de IA generativa na pesquisa científica. A adoção crescente de ChatGPT e ferramentas similares em trabalhos acadêmicos levou especialistas a alertar sobre o perigo crescente do conteúdo gerado por IA.
Especificamente, a falta de manipulação detectável dessas imagens torna difícil identificar atividades fraudulentas. Os pesquisadores acreditam que o conteúdo gerado por IA pode já estar entrando em revistas sem detecção, ameaçando a confiabilidade da literatura científica.