
Los abogados estadounidenses están presentando escritos generados por IA con citas ficticias a un ritmo acelerado, las sanciones judiciales están estableciendo nuevos récords, y la tecnología se está extendiendo tan profundamente en el software legal que los expertos dicen que las reglas de divulgación obligatoria pueden ser ya obsoletas.
Los abogados estadounidenses están presentando escritos generados por IA con citas ficticias a un ritmo acelerado, las sanciones judiciales están estableciendo nuevos récords, y la tecnología se está extendiendo tan profundamente en el software legal que los expertos dicen que las reglas de divulgación obligatoria pueden ser ya obsoletas. Según la investigación del 3 de abril de NPR, el volumen de sanciones judiciales por errores generados por IA aumentó drásticamente hasta 2025 y no ha disminuido en 2026 — un patrón que conlleva consecuencias directas para cualquier sector, incluido el cripto, cuya exposición legal depende de la calidad de los escritos presentados en su defensa.
Damien Charlotin, investigador de HEC París que mantiene un recuento mundial de sanciones judiciales por errores legales generados por IA, dijo a NPR que el ritmo no ha disminuido. “Recientemente tuvimos 10 casos de 10 tribunales diferentes en un solo día”, dijo. “Tenemos este problema porque la IA es demasiado buena — pero no perfecta.” El caso más destacado del ciclo pasado fue el de los abogados del CEO de MyPillow, Mike Lindell, quienes fueron multados con $3,000 cada uno por presentar escritos que contenían citas ficticias.
Un tribunal federal podría haber establecido un nuevo récord el mes pasado cuando se ordenó a un abogado con sede en Oregón pagar $109,700 en sanciones y costas. Los tribunales supremos estatales también se han visto involucrados: el tribunal superior de Nebraska interrogó a un abogado de Omaha en febrero sobre citas ficticias y lo remitió para disciplina, y una escena pública similar se desarrolló en el Tribunal Supremo de Georgia en marzo. “Me sorprende que la gente siga haciendo esto cuando ha estado en las noticias”, dijo Carla Wale, decana asociada de información y tecnología de la Facultad de Derecho de la Universidad de Washington.
Algunos tribunales han respondido exigiendo a los abogados que etiqueten cualquier contenido asistido por IA en sus presentaciones. Joe Patrice, editor senior de Above the Law y abogado convertido en periodista, dijo a NPR que es probable que esas reglas se vuelvan inviables casi de inmediato. “Se va a integrar tanto en cómo opera todo que, para cumplir diligentemente con la regla, tendrías que poner en todo lo que publiques, ‘Oye, esto es asistido por IA’, en cuyo punto se convierte en un esfuerzo inútil”, dijo. La economía de la facturación legal también está acelerando la adopción en lugar de ralentizarla. A medida que las herramientas de IA reducen el tiempo de redacción, los bufetes de abogados se enfrentan a la presión de encontrar nuevos modelos de facturación — y Patrice sugiere que la presión de tiempo resultante hace que sea más tentador para los abogados aceptar los primeros borradores de IA sin una verificación adecuada.
El propio cambio del DOJ de no enjuiciar a los desarrolladores de cripto se basó en parte en el argumento de que el código es neutral a menos que haya intención criminal — una distinción que requiere exactamente el tipo de razonamiento legal cuidadoso que los escritos apresurados asistidos por IA no logran replicar consistentemente. Un tribunal federal de Texas desestimó recientemente un caso de responsabilidad de software cripto citando en parte un memorando del DOJ sobre los estándares de enjuiciamiento de desarrolladores, ilustrando cómo la calidad del razonamiento legal en casos adyacentes a la IA moldea directamente los resultados regulatorios para todo el sector.
La IA misma ha entrado ahora en el punto de mira legal más allá del problema de los errores en los tribunales. En marzo, OpenAI fue demandada en un tribunal federal de Illinois por Nippon Life Insurance Company of America, que alegó que una mujer estaba utilizando ChatGPT como asesora legal, recibiendo orientación que llevó a demandas frívolas contra la aseguradora. La demanda acusó a OpenAI de ejercer la abogacía sin licencia. En una declaración escrita a NPR, OpenAI dijo: “Esta demanda carece de cualquier mérito.” Wale, por su parte, rechaza ambos extremos. “Creo que los abogados que entienden cómo usar de manera efectiva y ética la IA generativa reemplazarán a los abogados que no lo hacen”, dijo. “Así es como creo que será el futuro.”