
Advogados dos EUA estão apresentando petições geradas por IA com citações fictícias em um ritmo acelerado, as sanções judiciais estão estabelecendo novos recordes, e a tecnologia está se espalhando tão profundamente no software jurídico que especialistas dizem que as regras de divulgação obrigatória podem já estar obsoletas.
Advogados dos EUA estão apresentando petições geradas por IA com citações fictícias em um ritmo acelerado, as sanções judiciais estão estabelecendo novos recordes, e a tecnologia está se espalhando tão profundamente no software jurídico que especialistas dizem que as regras de divulgação obrigatória podem já estar obsoletas. De acordo com a investigação de 3 de abril da NPR, o volume de sanções judiciais por erros gerados por IA aumentou drasticamente em 2025 e não diminuiu em 2026 — um padrão que acarreta consequências diretas para qualquer setor, incluindo o de cripto, cuja exposição legal depende da qualidade das petições apresentadas em sua defesa.
Damien Charlotin, pesquisador da HEC Paris que mantém uma contagem mundial de sanções judiciais por erros legais gerados por IA, disse à NPR que o ritmo não diminuiu. “Recentemente, tivemos 10 casos de 10 tribunais diferentes em um único dia”, disse ele. “Temos esse problema porque a IA é simplesmente boa demais — mas não perfeita.” O caso mais proeminente do ciclo passado foi o dos advogados do CEO da MyPillow, Mike Lindell, que foram multados em US$ 3.000 cada por apresentarem petições contendo citações fictícias.
Um tribunal federal pode ter estabelecido um novo recorde no mês passado, quando um advogado baseado no Oregon foi condenado a pagar US$ 109.700 em sanções e custas. Tribunais supremos estaduais também foram envolvidos: o tribunal superior de Nebraska interrogou um advogado de Omaha em fevereiro sobre citações fictícias e o encaminhou para disciplina, e uma cena pública semelhante se desenrolou no Supremo Tribunal da Geórgia em março. “Fico surpresa que as pessoas ainda estejam fazendo isso quando tem sido noticiado”, disse Carla Wale, decana associada de informação e tecnologia da Faculdade de Direito da Universidade de Washington.
Alguns tribunais responderam exigindo que os advogados rotulem qualquer conteúdo assistido por IA em suas petições. Joe Patrice, editor sênior da Above the Law e advogado que virou jornalista, disse à NPR que essas regras provavelmente se tornarão inviáveis quase que imediatamente. “Isso vai se tornar tão integrado à forma como tudo funciona que, para cumprir diligentemente a regra, você teria que colocar em tudo o que publica: ‘Ei, isso foi assistido por IA’, ponto em que se torna um esforço inútil”, disse ele. A economia da cobrança jurídica também está acelerando a adoção em vez de desacelerá-la. À medida que as ferramentas de IA reduzem o tempo de redação, os escritórios de advocacia enfrentam pressão para encontrar novos modelos de cobrança — e Patrice sugere que a pressão de tempo resultante torna mais tentador para os advogados aceitarem os primeiros rascunhos de IA sem verificação adequada.
A própria mudança do Departamento de Justiça (DOJ) de processar desenvolvedores de cripto baseou-se, em parte, no argumento de que o código é neutro a menos que haja intenção criminosa — uma distinção que exige exatamente o tipo de raciocínio jurídico cuidadoso que as petições apressadas assistidas por IA consistentemente falham em replicar. Um tribunal federal do Texas recentemente rejeitou um caso de responsabilidade de software de cripto, em parte, citando um memorando do DOJ sobre os padrões de processo de desenvolvedores, ilustrando como a qualidade do raciocínio jurídico em casos adjacentes à IA molda diretamente os resultados regulatórios para todo o setor.
A própria IA agora entrou na mira legal para além do problema de erros em tribunal. Em março, a OpenAI foi processada em um tribunal federal em Illinois pela Nippon Life Insurance Company of America, que alegou que uma mulher estava usando o ChatGPT como conselheira jurídica, recebendo orientações que levaram a processos judiciais frívolos contra a seguradora. A queixa acusava a OpenAI de praticar advocacia sem licença. Em uma declaração escrita à NPR, a OpenAI disse: “Esta queixa não tem mérito algum.” Wale, por sua parte, rejeita ambos os extremos. “Acho que advogados que entendem como usar de forma eficaz e ética a IA generativa substituem advogados que não entendem”, disse ela. “É isso que eu acho que é o futuro.”