Um juiz federal do distrito de Nova Jersey, nos Estados Unidos, retirou uma decisão em um caso de segurança de biofarmacêuticos da empresa CorMedix, após advogados da defesa apontarem que a opinião do tribunal continha diversos erros, incluindo citações inventadas e resultados de casos deturpados.
O incidente, reportado pela The Verge e destacado em sites como Bloomberg, Reason.com e Above the Law, levanta preocupações sobre a confiabilidade de documentos legais auxiliados por inteligência artificial.
A decisão original havia sido emitida em 30 de junho de 2025. O juiz Julien Xavier Neals, do Distrito de Nova Jersey, acatou a reclamação do advogado Andrew Lichtman, da Willkie Farr & Gallagher, que representa a CorMedix. Lichtman não solicitou formalmente a reconsideração, mas apontou “uma série de erros na Opinião – incluindo três casos em que os resultados de casos citados na Opinião foram deturpados (ou seja, os pedidos de arquivamento foram…)” em uma carta ao tribunal.
Erros graves e “alucinações” da IA no registro legal
Embora não houvesse alegações de casos jurídicos falsos inteiramente inventados, o problema residia em citações errôneas e atribuições incorretas. Por exemplo, a opinião citava o caso Dang v. Amarin Corp. atribuindo um comportamento executivo como “evidência clássica de scienter” (intenção ou conhecimento de ato ilícito), e também atribuía duas citações à própria CorMedix que a empresa não teria feito.
Os equívocos já começaram a se proliferar: acionistas da Outlook Therapeutics, em um caso diferente e relacionado, já haviam citado a ordem agora retirada como precedente persuasivo. Como observado pelo Above the Law, as “alucinações” da IA estão “se infiltrando no registro” legal, evidenciando um risco crescente para a integridade dos processos jurídicos.
A responsabilidade do uso de IA e o alerta para o judiciário
O episódio reforça a discussão sobre a responsabilidade no uso de ferramentas de IA no âmbito jurídico. Casos anteriores já alertaram sobre advogados que citaram precedentes inteiramente fabricados por IA, resultando em sanções e retratações.
Este novo incidente, em que os erros foram gerados em uma decisão judicial, destaca que o problema não se limita apenas à submissão de peças processuais, mas pode afetar a própria fundamentação das sentenças.
O juiz Neals ordenou a remoção da decisão do processo e prometeu uma nova opinião em breve. O ocorrido serve como um alerta crucial para o judiciário sobre a necessidade de supervisão rigorosa e verificação humana quando se empregam sistemas de inteligência artificial em tarefas de alta responsabilidade, como a elaboração de documentos legais e decisões judiciais.






