
US-Anwälte reichen immer schneller KI-generierte Schriftsätze mit fiktiven Zitaten ein, Gerichtsverfahren verhängen neue Rekordstrafen, und die Technologie verbreitet sich so tief in juristische Software, dass Experten sagen, obligatorische Offenlegungsvorschriften könnten bereits überholt sein.
US-Anwälte reichen immer schneller KI-generierte Schriftsätze mit fiktiven Zitaten ein, Gerichtsverfahren verhängen neue Rekordstrafen, und die Technologie verbreitet sich so tief in juristische Software, dass Experten sagen, obligatorische Offenlegungsvorschriften könnten bereits überholt sein. Laut einer Untersuchung von NPR vom 3. April stieg das Volumen der Gerichtssanktionen für KI-generierte Fehler bis 2025 stark an und hat sich 2026 nicht verlangsamt – ein Muster, das direkte Konsequenzen für jeden Sektor, einschließlich Krypto, hat, dessen rechtliches Risiko von der Qualität der zu seiner Verteidigung eingereichten Schriftsätze abhängt.
Damien Charlotin, ein Forscher an der HEC Paris, der eine weltweite Zählung der Gerichtssanktionen für KI-generierte Rechtsfehler führt, sagte NPR, das Tempo habe nicht nachgelassen. „Kürzlich hatten wir an einem einzigen Tag 10 Fälle von 10 verschiedenen Gerichten“, sagte er. „Wir haben dieses Problem, weil KI einfach zu gut ist – aber nicht perfekt.“ Der bekannteste Fall des letzten Zyklus war der der Anwälte von MyPillow-CEO Mike Lindell, die jeweils mit 3.000 US-Dollar bestraft wurden, weil sie Schriftsätze mit fiktiven Zitaten eingereicht hatten.
Ein Bundesgericht hat letzten Monat möglicherweise einen neuen Rekord aufgestellt, als ein in Oregon ansässiger Anwalt angewiesen wurde, 109.700 US-Dollar an Sanktionen und Kosten zu zahlen. Auch die Obersten Gerichte der Bundesstaaten wurden hinzugezogen: Nebraskas oberstes Gericht befragte im Februar einen Anwalt aus Omaha wegen fiktiver Zitate und verwies ihn zur Disziplinarmaßnahme, und eine ähnlich öffentliche Szene spielte sich im März vor dem Obersten Gericht von Georgia ab. „Ich bin überrascht, dass die Leute das immer noch tun, wo es doch in den Nachrichten war“, sagte Carla Wale, stellvertretende Dekanin für Information und Technologie an der University of Washington School of Law.
Einige Gerichte haben reagiert, indem sie Anwälte dazu verpflichten, KI-unterstützte Inhalte in ihren Schriftsätzen zu kennzeichnen. Joe Patrice, leitender Redakteur von Above the Law und Anwalt, der zum Journalisten wurde, sagte NPR, diese Regeln würden wahrscheinlich fast sofort unpraktikabel werden. „Es wird so stark in die Funktionsweise von allem integriert sein, dass man, um die Regel sorgfältig einzuhalten, auf alles, was man veröffentlicht, ‚Hallo, das ist KI-unterstützt‘ schreiben müsste, wodurch es eine nutzlose Angelegenheit wird“, sagte er. Auch die Ökonomie der juristischen Abrechnung beschleunigt die Adoption, anstatt sie zu verlangsamen. Da KI-Tools die Entwurfszeit verkürzen, stehen Anwaltskanzleien unter Druck, neue Abrechnungsmodelle zu finden – und Patrice deutet an, dass der daraus resultierende Zeitdruck es für Anwälte verlockender macht, KI-Erstentwürfe ohne ausreichende Überprüfung zu akzeptieren.
Die eigene Abkehr des Justizministeriums (DOJ) von der Verfolgung von Krypto-Entwicklern beruhte teilweise auf dem Argument, dass Code neutral ist, es sei denn, es liegt eine kriminelle Absicht vor – eine Unterscheidung, die genau die Art von sorgfältiger juristischer Argumentation erfordert, die überhastete, KI-unterstützte Schriftsätze konsequent nicht wiedergeben können. Ein texanisches Bundesgericht wies kürzlich einen Fall von Krypto-Softwarehaftung ab, indem es teilweise ein DOJ-Memo zu den Standards für die Verfolgung von Entwicklern zitierte, was verdeutlicht, wie die Qualität der juristischen Argumentation in KI-nahen Fällen die Regulierungsergebnisse für den gesamten Sektor direkt beeinflusst.
KI selbst ist nun über das Problem der Gerichtsfehler hinaus ins juristische Fadenkreuz geraten. Im März wurde OpenAI von der Nippon Life Insurance Company of America vor einem Bundesgericht in Illinois verklagt, die behauptete, eine Frau habe ChatGPT als Rechtsberaterin genutzt und Ratschläge erhalten, die zu unsinnigen Klagen gegen den Versicherer führten. Die Klage warf OpenAI vor, ohne Lizenz Rechtsberatung zu betreiben. In einer schriftlichen Erklärung gegenüber NPR sagte OpenAI: „Diese Klage entbehrt jeglicher Grundlage.“ Wale ihrerseits lehnt beide Extreme ab. „Ich denke, dass Anwälte, die verstehen, wie man generative KI effektiv und ethisch einsetzt, Anwälte ersetzen werden, die es nicht tun“, sagte sie. „Das ist meiner Meinung nach die Zukunft.“