
Photo by Sasun Bughdaryan on Unsplash
Advogados da Anthropic assumem responsabilidade por alucinação de IA em processo de direitos autorais
Nesta quinta-feira, um advogado da Anthropic reconheceu o uso de uma citação incorreta gerada pelo chatbot de IA da empresa, Claude, durante um caso de direitos autorais em andamento no norte da Califórnia. A empresa de IA está atualmente em uma batalha legal com a Universal Music Group (UMG), que processou a Anthropic pelo uso de letras de músicas protegidas por direitos autorais para treinar seus modelos de IA.
Está com pressa? Aqui estão os fatos rápidos:
- A advogada que defende a Anthropic no tribunal reconheceu o uso de uma citação incorreta gerada por Claude.
- O erro foi abordado pelos advogados da UMG durante o caso em andamento de direitos autorais de música no norte da Califórnia.
- Dukanovic descreveu a situação como um “erro constrangedor e não intencional”.
A advogada, Ivana Dukanovic, associada da Latham & Watkins, declarou em um documento judicial que Claude cometeu um erro de citação ao listar o título e o autor errados de um artigo usado no caso. No entanto, ela observou que a publicação, o link, o ano e o conteúdo do artigo estavam corretos.
“Nossa investigação sobre o assunto confirma que isso foi um erro de citação honesto e não uma fabricação de autoridade”, afirma o documento. “Pedimos desculpas pela imprecisão e qualquer confusão que este erro causou.”
De acordo com a Reuters, a explicação de Dukanovic vem depois que os advogados da UMG disseram que a cientista de dados Olivia Chen usou fontes fabricadas por IA para defender a Anthropic no caso.
Dukanovic explicou que Chen usou o artigo correto da revista American Statistician, mas que os advogados da Latham & Watkins adicionaram uma nota de rodapé incorreta fornecida por Claude:
Depois que a equipe da Latham & Watkins identificou a fonte como um potencial suporte adicional para o depoimento da Sra. Chen, eu pedi ao Claude.ai para fornecer uma citação jurídica devidamente formatada para essa fonte usando o link para o artigo correto. Infelizmente, embora fornecesse o título da publicação correto, o ano de publicação e o link para a fonte fornecida, a citação retornada incluía um título impreciso e autores incorretos. Nossa verificação manual de citação não percebeu esse erro.
Dukanovic descreveu a situação como um “erro embaraçoso e não intencional” e garantiu que eles implementaram novas medidas para garantir que isso não aconteça novamente.
Algumas semanas atrás, durante uma fase inicial do caso, o júri decidiu a favor da Anthropic e considerou as solicitações da UMG muito amplas. Esta nova situação pode pôr em risco a vantagem da Anthropic no caso.
Nos últimos meses, vários advogados apresentaram documentos gerados por IA incorretos em tribunal nos Estados Unidos, levantando preocupações e problemas jurídicos. Esta semana, um juiz multou dois escritórios de advocacia em $31,000 por citações jurídicas falsas geradas por IA.