
Image by Sasun Bughdaryan, from Unsplash
Especialistas Alertam que Tribunais Podem Ignorar Alucinações de IA em Processos Legais
Um tribunal da Geórgia anulou uma ordem de divórcio após descobrir citações jurídicas falsas, provavelmente geradas por IA, acendendo alertas sobre os crescentes riscos nos sistemas de justiça.
Está com pressa? Aqui estão os fatos rápidos:
- O tribunal da Geórgia anulou a ordem devido a suspeitas de citações de casos falsos gerados por IA.
- O juiz Jeff Watkins citou a “IA generativa” como uma provável fonte de casos falsos.
- Especialistas afirmam que é provável que os tribunais deixem passar mais erros de IA nas petições.
O caso perante um tribunal da Geórgia demonstra como a inteligência artificial (IA) pode silenciosamente degradar a confiança do público nas instituições jurídicas americanas. ArsTechnica relata que o juiz Jeff Watkins do Tribunal de Apelações da Geórgia anulou uma ordem de divórcio porque encontrou dois casos inventados no documento, que provavelmente eram conteúdo de IA.
A ordem havia sido redigida pela advogada Diana Lynch, que, segundo a ArsTechnica, agora é uma prática comum em tribunais sobrecarregados. Esse hábito crescente de usar IA em processos judiciais torna os atalhos particularmente arriscados.
Lynch foi multada em $2,500, e o Juiz Watkins escreveu: “as irregularidades nessas petições sugerem que foram elaboradas usando IA gerativa”, acrescentando que as alucinações da IA podem “desperdiçar tempo e dinheiro”, danificar a reputação do sistema, e permitir que um “litigante […] desafie uma decisão judicial, alegando de forma desonesta dúvidas sobre sua autenticidade”, conforme relatado pela ArsTechnica.
Especialistas alertam que este não é um caso isolado. John Browning, ex-juiz de apelações do Texas, disse que é “assustadoramente provável” que mais tribunais de primeira instância confiem erroneamente em citações falsas geradas por IA, especialmente em sistemas sobrecarregados. “Eu posso imaginar tal cenário em uma série de situações”, disse ele à Ars Technica.
Outros exemplos recentes ecoam a preocupação. O sistema jurídico do Colorado multou dois advogados que representavam o CEO da MyPillow, Mike Lindell, em um total de $3.000, depois que eles apresentaram documentos jurídicos gerados por IA com mais de vinte erros graves. A juíza Nina Y. Wang escreveu: “este Tribunal não tem prazer em sancionar advogados”, mas enfatizou que os advogados são responsáveis por verificar as petições.
Na Califórnia, outro juiz multou dois escritórios de advocacia em $31.000 depois que eles apresentaram petições contendo citações falsas. “Isso é assustador”, escreveu o juiz Michael Wilner, que quase foi persuadido pelas decisões falsas. A menos que os tribunais se adaptem rapidamente, as alucinações de IA podem se tornar um pesadelo recorrente na justiça americana.
Essa tendência é particularmente preocupante ao considerar o quanto a representação legal já é cara. As pessoas comumente acreditam que as taxas jurídicas garantem tanto a precisão quanto o serviço profissional de seus advogados. No entanto, à medida que os advogados utilizam a IA para atalhos, os clientes podem acabar pagando a conta por erros cometidos por uma máquina.
Essas alucinações não ameaçam apenas os resultados legais, elas também podem reforçar a desigualdade, tornando a justiça ainda mais difícil de ser acessada por aqueles que menos podem se dar ao luxo de lutar contra ela.