Advogados da Anthropic assumem responsabilidade por alucinação de IA em processo de direitos autorais

Photo by Sasun Bughdaryan on Unsplash

Advogados da Anthropic assumem responsabilidade por alucinação de IA em processo de direitos autorais

Tempo de leitura: 3 minuto

Nesta quinta-feira, um advogado da Anthropic reconheceu o uso de uma citação incorreta gerada pelo chatbot de IA da empresa, Claude, durante um caso de direitos autorais em andamento no norte da Califórnia. A empresa de IA está atualmente em uma batalha legal com a Universal Music Group (UMG), que processou a Anthropic pelo uso de letras de músicas protegidas por direitos autorais para treinar seus modelos de IA.

Está com pressa? Aqui estão os fatos rápidos:

  • A advogada que defende a Anthropic no tribunal reconheceu o uso de uma citação incorreta gerada por Claude.
  • O erro foi abordado pelos advogados da UMG durante o caso em andamento de direitos autorais de música no norte da Califórnia.
  • Dukanovic descreveu a situação como um “erro constrangedor e não intencional”.

A advogada, Ivana Dukanovic, associada da Latham & Watkins, declarou em um documento judicial que Claude cometeu um erro de citação ao listar o título e o autor errados de um artigo usado no caso. No entanto, ela observou que a publicação, o link, o ano e o conteúdo do artigo estavam corretos.

“Nossa investigação sobre o assunto confirma que isso foi um erro de citação honesto e não uma fabricação de autoridade”, afirma o documento. “Pedimos desculpas pela imprecisão e qualquer confusão que este erro causou.”

De acordo com a Reuters, a explicação de Dukanovic vem depois que os advogados da UMG disseram que a cientista de dados Olivia Chen usou fontes fabricadas por IA para defender a Anthropic no caso.

Dukanovic explicou que Chen usou o artigo correto da revista American Statistician, mas que os advogados da Latham & Watkins adicionaram uma nota de rodapé incorreta fornecida por Claude:

Depois que a equipe da Latham & Watkins identificou a fonte como um potencial suporte adicional para o depoimento da Sra. Chen, eu pedi ao Claude.ai para fornecer uma citação jurídica devidamente formatada para essa fonte usando o link para o artigo correto. Infelizmente, embora fornecesse o título da publicação correto, o ano de publicação e o link para a fonte fornecida, a citação retornada incluía um título impreciso e autores incorretos. Nossa verificação manual de citação não percebeu esse erro.

Dukanovic descreveu a situação como um “erro embaraçoso e não intencional” e garantiu que eles implementaram novas medidas para garantir que isso não aconteça novamente.

Algumas semanas atrás, durante uma fase inicial do caso, o júri decidiu a favor da Anthropic e considerou as solicitações da UMG muito amplas. Esta nova situação pode pôr em risco a vantagem da Anthropic no caso.

Nos últimos meses, vários advogados apresentaram documentos gerados por IA incorretos em tribunal nos Estados Unidos, levantando preocupações e problemas jurídicos. Esta semana, um juiz multou dois escritórios de advocacia em $31,000 por citações jurídicas falsas geradas por IA.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback