top-law-firm-admits-to-ai-hallucinations-in-bankruptcy-filing-tied-to-alleged-scam-network
Czołowa kancelaria prawna przyznaje się do „halucynacji” AI w zgłoszeniu upadłości związanym z rzekomą siecią oszustw
Sullivan & Cromwell stwierdzili, że w sprawie Prince Group zostały ominięte wewnętrzne zabezpieczenia, co doprowadziło do sfabrykowanych i nieprawdziwych cytowań prawnych.
2026-04-22 Źródło:decrypt.co

W skrócie

  • Kancelaria prawna Sullivan & Cromwell przyznała, że niedawne pismo w głośnej sprawie zawierało „halucynacje” sztucznej inteligencji.
  • Kancelaria stwierdziła, że wyniki sztucznej inteligencji nie zostały odpowiednio zweryfikowane i zawierały sfabrykowane cytaty.
  • Sprawa dotyczy działań wyznaczonych przez sąd likwidatorów w celu dochodzenia roszczeń związanych z objętą sankcjami grupą Prince Group.

Kancelaria prawna Sullivan & Cromwell przyznała przed amerykańskim sądem upadłościowym, że niedawne pismo w głośnej sprawie zawierało błędy generowane przez sztuczną inteligencję, w tym sfabrykowane cytaty.

„Głęboko żałujemy, że do tego doszło” – napisał do sędziego Martina Glenna Andrew Dietderich, szef działu restrukturyzacji kancelarii, stwierdzając, że dokument zawierał „halucynacje” sztucznej inteligencji, które tworzyły fikcyjne autorytety i zniekształcały istniejące.

Ujawnienie nastąpiło w piśmie skierowanym do Amerykańskiego Sądu Upadłościowego dla Południowego Dystryktu Nowego Jorku, gdzie kancelaria reprezentuje likwidatorów wyznaczonych przez sąd z Brytyjskich Wysp Dziewiczych. Błędy pojawiły się w wniosku z 9 kwietnia, a kancelaria stwierdziła, że jej zasady dotyczące korzystania z AI nie były przestrzegane podczas przygotowania.

Sprawa dotyczy działań tych likwidatorów w celu dochodzenia roszczeń związanych z Prince Group i jej właścicielem, Chen Zhi. Prokuratorzy zarzucają Chenowi kierowanie oszukańczymi programami, które celowały w ofiary na całym świecie i dążyli do odzyskania miliardów dolarów w kryptowalutach, które, jak twierdzą, są powiązane z tą działalnością. Został zatrzymany na początku tego roku w Kambodży, a później repatriowany do Chin.

W ramach postępowania Rozdziału 15 w USA likwidatorzy dążą do uznania ich uprawnień do działania w imieniu wierzycieli i domniemanych ofiar. Prince Group, zarejestrowana na Brytyjskich Wyspach Dziewiczych, została powiązana przez władze USA z wielkoskalowymi operacjami oszustw w Azji Południowo-Wschodniej i objęta sankcjami przez rządy Wielkiej Brytanii i USA.

Zgodnie ze skorygowanym pismem, wniosek z kwietnia błędnie przedstawiał prawo precedensowe w wielu miejscach i zawierał cytaty, które nie popierały przypisywanych im tez, podczas gdy niektóre wydawały się nie mieć żadnych podstaw. Kancelaria wycofała pierwotny wniosek i złożyła poprawioną wersję.

Prawnicy Prince Group i Chena z Boies Schiller Flexner początkowo zidentyfikowali błędy. Stwierdzili, że języka przypisywanego amerykańskiemu Kodeksowi Upadłościowemu nie można było znaleźć, a kilka autorytetów zostało błędnie scharakteryzowanych lub zidentyfikowanych. W jednym przypadku, jak powiedzieli, cytowana sprawa odnosiła się do innej decyzji w innym okręgu.

W osobnym piśmie pozwani stwierdzili, że co najmniej 28 cytatów było błędnych, w tym cytaty przypisywane sądowi, które nie istnieją. Argumentowali, że termin korekty był krzywdzący, ponieważ zmienione pismo wpłynęło po złożeniu przez nich sprzeciwów, i zwrócili się do sądu o odroczenie zaplanowanej rozprawy i zorganizowanie posiedzenia statusowego.

Sullivan & Cromwell stwierdziło, że jego polityka wymaga od prawników ukończenia szkolenia przed użyciem narzędzi AI i samodzielnego weryfikowania wszystkich danych wyjściowych.

„Zanim jakikolwiek prawnik kancelarii otrzyma dostęp do generatywnych narzędzi AI, musi ukończyć dwa wymagane moduły szkoleniowe, których ukończenie jest śledzone i weryfikowane. Szkolenie wielokrotnie podkreśla ryzyko ‘halucynacji’ AI, w tym fałszowania cytatów z orzecznictwa, błędnej interpretacji autorytetów i niedokładnych cytatów” – stwierdzono.

„Instruuje prawników, aby ‘niczemu nie ufali i wszystko weryfikowali’ oraz jasno określa, że brak niezależnej weryfikacji wyników generowanych przez AI stanowi naruszenie polityki kancelarii”.

Kancelaria stwierdziła, że szerszy przegląd wykazał dodatkowe drobne problemy redakcyjne w innych pismach, które przypisała błędowi ludzkiemu, a nie AI. Nie podała nazwisk prawników, którzy przygotowali pierwotny wniosek.

AI na ławie oskarżonych

Incydent ten powiększa rosnącą listę błędów związanych z AI w praktyce prawnej, gdy kancelarie testują narzędzia zaprojektowane w celu przyspieszenia badań i redagowania dokumentów. Sądy niedawno nałożyły sankcje lub skrytykowały prawników za składanie pism zawierających sfabrykowane lub niedokładne odniesienia wygenerowane przez AI. W Australii w zeszłym roku jeden prawnik został pozbawiony możliwości wykonywania zawodu głównego prawnika z powodu korzystania z AI.

Szkoły prawnicze zaczynają wymagać nauczania o tej technologii, podczas gdy starsi sędziowie ostrzegają, że niewłaściwe użycie może wpłynąć na integralność postępowań.

Ostatnie orzeczenia dotyczyły również tego, jak AI wpisuje się w istniejące ramy prawne, w tym czy interakcje z takimi narzędziami są chronione przywilejem. Jednocześnie niektóre sądy pilotażowo wdrażają systemy AI, aby pomóc w zarządzaniu dużym obciążeniem spraw.