Tribunal do Reino Unido Adverte Advogados: Citações Falsas de IA Podem Levar a Acusações Criminais

Image by Sue Winston, from Unsplash

Tribunal do Reino Unido Adverte Advogados: Citações Falsas de IA Podem Levar a Acusações Criminais

Tempo de leitura: 3 minuto

O Tribunal Superior da Inglaterra e País de Gales emitiu um severo aviso aos advogados, indicando que eles devem se abster de usar informações jurídicas falsas produzidas por ferramentas de inteligência artificial como o ChatGPT, pois enfrentarão penalidades criminais.

Com pressa? Aqui estão os fatos rápidos:

  • Tribunal do Reino Unido alerta advogados sobre acusações criminais por citações falsas geradas por IA.
  • Referências de casos criadas por IA usadas em processo de £89 milhões careciam de base factual.
  • Advogado auto-denunciou após apresentar 18 casos falsos misturados com citações genuínas.

O alerta tornou-se necessário após dois recentes processos legais. O homem que moveu uma ação de £89 milhões contra dois bancos criou citações legais baseadas em inteligência artificial, conforme relatado pelo The New York Times.

Dentre as 45 referências de casos apresentadas, dezoito não tinham absolutamente nenhum fundamento factual. The Guardian noticiou que a advogada forneceu citações reais, mas tanto as referências genuínas quanto as falsas falharam em estabelecer conexões válidas com o caso.

A advogada assumiu a responsabilidade por sua falta de supervisão das citações antes de se denunciar ao órgão regulador.

O Haringey Law Centre entrou com uma ação judicial contra o conselho municipal de Londres por causa de uma disputa de moradia. A advogada apresentou ao tribunal cinco casos anteriores totalmente fabricados. O tribunal determinou que ela era responsável por criar despesas jurídicas desnecessárias, de acordo com o The Guardian.

Embora ela tenha negado o uso direto de IA, admitiu que pode ter “realizado pesquisas no Google ou Safari” e, sem saber, confiado em resumos gerados por IA, conforme relatado pelo The Times.

A juíza Victoria Sharp, presidente da Divisão do Banco do Rei, disse: “Há implicações sérias para a administração da justiça e a confiança pública no sistema de justiça se a inteligência artificial for mal utilizada”, conforme relatado pelo The Times. Ela alertou que os advogados correm o risco de enfrentar acusações criminais ou serem proibidos de exercer a advocacia.

A sentença acrescentou que as ferramentas de IA “podem produzir respostas aparentemente coerentes e plausíveis… [mas] podem fazer afirmações confiantes que são simplesmente falsas”, conforme relatado pelo The Times. Ian Jeffery, da Law Society, apoiou a decisão, dizendo que ela “expos os perigos do uso da IA no trabalho jurídico”, conforme relatado pelo The Guardian.

O tribunal pediu aos líderes legais que treinem urgentemente o pessoal sobre como usar a IA de maneira responsável, que é conhecida por “alucinar” informações.

A prática de uso descontrolado da IA já causou problemas semelhantes em todo os Estados Unidos, bem como na Austrália e na Europa, gerando assim uma preocupação generalizada entre os profissionais do direito.

Uma juíza dos EUA aplicou multas de $31.000 a dois escritórios de advocacia por usarem IA para criar petições judiciais artificiais que incluíam citações legais falsificadas. O documento judicial relacionado à State Farm incluía referências judiciais falsas, que os advogados de ambos os escritórios negligenciaram verificar.

O juiz Michael Wilner expressou sua decepção com os advogados por não verificarem o conteúdo gerado por IA, o que quase resultou na inclusão de informações enganosas em uma ordem judicial.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback