
Amerykańscy prawnicy w coraz szybszym tempie składają pisma procesowe generowane przez AI z fikcyjnymi cytatami, kary sądowe biją nowe rekordy, a technologia tak głęboko zakorzenia się w oprogramowaniu prawnym, że eksperci twierdzą, iż obowiązkowe zasady ujawniania informacji mogą być już przestarzałe.
Amerykańscy prawnicy w coraz szybszym tempie składają pisma procesowe generowane przez AI z fikcyjnymi cytatami, kary sądowe biją nowe rekordy, a technologia tak głęboko zakorzenia się w oprogramowaniu prawnym, że eksperci twierdzą, iż obowiązkowe zasady ujawniania informacji mogą być już przestarzałe. Według śledztwa NPR z 3 kwietnia, liczba sankcji sądowych za błędy generowane przez AI gwałtownie wzrosła w 2025 roku i nie zwolniła w 2026 roku — jest to wzorzec, który ma bezpośrednie konsekwencje dla każdego sektora, w tym dla krypto, którego ekspozycja prawna zależy od jakości pism składanych w jego obronie.
Damien Charlotin, badacz z HEC Paris, który prowadzi światową statystykę kar sądowych za błędy prawne generowane przez AI, powiedział NPR, że tempo nie ustabilizowało się. „Niedawno mieliśmy 10 przypadków z 10 różnych sądów w ciągu jednego dnia” – powiedział. „Mamy ten problem, ponieważ AI jest po prostu zbyt dobre — ale nie idealne”. Najgłośniejsza sprawa ostatniego cyklu dotyczyła prawników CEO MyPillow, Mike’a Lindella, którzy zostali ukarani grzywną w wysokości 3000 USD każdy za złożenie pism zawierających fikcyjne cytaty.
Sąd federalny mógł ustanowić nowy rekord w zeszłym miesiącu, kiedy prawnik z Oregonu został zobowiązany do zapłaty 109 700 USD w ramach sankcji i kosztów. Sądy najwyższe stanów również zostały w to wciągnięte: Sąd Najwyższy Nebraski przesłuchał w lutym prawnika z Omaha w sprawie fikcyjnych cytatów i skierował go do postępowania dyscyplinarnego, a podobna publiczna scena miała miejsce w Sądzie Najwyższym Georgii w marcu. „Jestem zaskoczona, że ludzie nadal to robią, skoro było to w wiadomościach” – powiedziała Carla Wale, prodziekan ds. informacji i technologii na Wydziale Prawa Uniwersytetu Waszyngtońskiego.
Niektóre sądy zareagowały, wymagając od prawników oznaczania wszelkich treści wspomaganych przez AI w ich dokumentach. Joe Patrice, starszy redaktor Above the Law i prawnik, który został dziennikarzem, powiedział NPR, że te zasady prawdopodobnie staną się niewykonalne niemal natychmiast. „To stanie się tak zintegrowane ze sposobem działania wszystkiego, że aby sumiennie przestrzegać zasady, musiałbyś na wszystkim, co publikujesz, umieszczać 'Hej, to jest wspomagane przez AI', co w tym momencie staje się swego rodzaju bezcelowym przedsięwzięciem” – powiedział. Ekonomia rozliczeń prawnych również przyspiesza, a nie spowalnia adopcję. Ponieważ narzędzia AI skracają czas sporządzania projektów, kancelarie prawne stają przed presją, aby znaleźć nowe modele rozliczeń — a Patrice sugeruje, że wynikająca z tego presja czasu sprawia, że prawnikom łatwiej jest akceptować pierwsze projekty AI bez odpowiedniej weryfikacji.
Własne odejście DOJ od ścigania deweloperów krypto opierało się częściowo na argumencie, że kod jest neutralny, chyba że istnieje zamiar przestępczy — rozróżnienie, które wymaga dokładnie takiego rodzaju starannego rozumowania prawnego, którego pospieszne pisma procesowe wspomagane przez AI konsekwentnie nie są w stanie odtworzyć. Federalny sąd w Teksasie niedawno oddalił sprawę odpowiedzialności za oprogramowanie krypto, częściowo powołując się na notatkę DOJ dotyczącą standardów ścigania deweloperów, co ilustruje, jak jakość rozumowania prawnego w sprawach związanych z AI bezpośrednio kształtuje wyniki regulacyjne dla całego sektora.
Sama sztuczna inteligencja znalazła się teraz na celowniku prawnym, wykraczającym poza problem błędów sądowych. W marcu OpenAI zostało pozwane w federalnym sądzie w Illinois przez Nippon Life Insurance Company of America, która zarzuciła, że kobieta używała ChatGPT jako doradcy prawnego, otrzymując porady, które doprowadziły do bezpodstawnych pozwów przeciwko ubezpieczycielowi. Skarga oskarżała OpenAI o praktykowanie prawa bez licencji. W pisemnym oświadczeniu dla NPR, OpenAI stwierdziło: „Ta skarga jest całkowicie bezpodstawna”. Wale ze swojej strony odrzuca obie skrajności. „Myślę, że prawnicy, którzy rozumieją, jak skutecznie i etycznie używać generatywnej sztucznej inteligencji, zastąpią prawników, którzy tego nie rozumieją” – powiedziała. „Tak widzę przyszłość”.