
Kancelaria prawna Sullivan & Cromwell przyznała przed amerykańskim sądem upadłościowym, że niedawne pismo w głośnej sprawie zawierało błędy generowane przez sztuczną inteligencję, w tym sfabrykowane cytaty.
„Głęboko żałujemy, że do tego doszło” – napisał do sędziego Martina Glenna Andrew Dietderich, szef działu restrukturyzacji kancelarii, stwierdzając, że dokument zawierał „halucynacje” sztucznej inteligencji, które tworzyły fikcyjne autorytety i zniekształcały istniejące.
Ujawnienie nastąpiło w piśmie skierowanym do Amerykańskiego Sądu Upadłościowego dla Południowego Dystryktu Nowego Jorku, gdzie kancelaria reprezentuje likwidatorów wyznaczonych przez sąd z Brytyjskich Wysp Dziewiczych. Błędy pojawiły się w wniosku z 9 kwietnia, a kancelaria stwierdziła, że jej zasady dotyczące korzystania z AI nie były przestrzegane podczas przygotowania.
Sprawa dotyczy działań tych likwidatorów w celu dochodzenia roszczeń związanych z Prince Group i jej właścicielem, Chen Zhi. Prokuratorzy zarzucają Chenowi kierowanie oszukańczymi programami, które celowały w ofiary na całym świecie i dążyli do odzyskania miliardów dolarów w kryptowalutach, które, jak twierdzą, są powiązane z tą działalnością. Został zatrzymany na początku tego roku w Kambodży, a później repatriowany do Chin.
W ramach postępowania Rozdziału 15 w USA likwidatorzy dążą do uznania ich uprawnień do działania w imieniu wierzycieli i domniemanych ofiar. Prince Group, zarejestrowana na Brytyjskich Wyspach Dziewiczych, została powiązana przez władze USA z wielkoskalowymi operacjami oszustw w Azji Południowo-Wschodniej i objęta sankcjami przez rządy Wielkiej Brytanii i USA.
Zgodnie ze skorygowanym pismem, wniosek z kwietnia błędnie przedstawiał prawo precedensowe w wielu miejscach i zawierał cytaty, które nie popierały przypisywanych im tez, podczas gdy niektóre wydawały się nie mieć żadnych podstaw. Kancelaria wycofała pierwotny wniosek i złożyła poprawioną wersję.
Prawnicy Prince Group i Chena z Boies Schiller Flexner początkowo zidentyfikowali błędy. Stwierdzili, że języka przypisywanego amerykańskiemu Kodeksowi Upadłościowemu nie można było znaleźć, a kilka autorytetów zostało błędnie scharakteryzowanych lub zidentyfikowanych. W jednym przypadku, jak powiedzieli, cytowana sprawa odnosiła się do innej decyzji w innym okręgu.
W osobnym piśmie pozwani stwierdzili, że co najmniej 28 cytatów było błędnych, w tym cytaty przypisywane sądowi, które nie istnieją. Argumentowali, że termin korekty był krzywdzący, ponieważ zmienione pismo wpłynęło po złożeniu przez nich sprzeciwów, i zwrócili się do sądu o odroczenie zaplanowanej rozprawy i zorganizowanie posiedzenia statusowego.
Sullivan & Cromwell stwierdziło, że jego polityka wymaga od prawników ukończenia szkolenia przed użyciem narzędzi AI i samodzielnego weryfikowania wszystkich danych wyjściowych.
„Zanim jakikolwiek prawnik kancelarii otrzyma dostęp do generatywnych narzędzi AI, musi ukończyć dwa wymagane moduły szkoleniowe, których ukończenie jest śledzone i weryfikowane. Szkolenie wielokrotnie podkreśla ryzyko ‘halucynacji’ AI, w tym fałszowania cytatów z orzecznictwa, błędnej interpretacji autorytetów i niedokładnych cytatów” – stwierdzono.
„Instruuje prawników, aby ‘niczemu nie ufali i wszystko weryfikowali’ oraz jasno określa, że brak niezależnej weryfikacji wyników generowanych przez AI stanowi naruszenie polityki kancelarii”.
Kancelaria stwierdziła, że szerszy przegląd wykazał dodatkowe drobne problemy redakcyjne w innych pismach, które przypisała błędowi ludzkiemu, a nie AI. Nie podała nazwisk prawników, którzy przygotowali pierwotny wniosek.
Incydent ten powiększa rosnącą listę błędów związanych z AI w praktyce prawnej, gdy kancelarie testują narzędzia zaprojektowane w celu przyspieszenia badań i redagowania dokumentów. Sądy niedawno nałożyły sankcje lub skrytykowały prawników za składanie pism zawierających sfabrykowane lub niedokładne odniesienia wygenerowane przez AI. W Australii w zeszłym roku jeden prawnik został pozbawiony możliwości wykonywania zawodu głównego prawnika z powodu korzystania z AI.
Szkoły prawnicze zaczynają wymagać nauczania o tej technologii, podczas gdy starsi sędziowie ostrzegają, że niewłaściwe użycie może wpłynąć na integralność postępowań.
Ostatnie orzeczenia dotyczyły również tego, jak AI wpisuje się w istniejące ramy prawne, w tym czy interakcje z takimi narzędziami są chronione przywilejem. Jednocześnie niektóre sądy pilotażowo wdrażają systemy AI, aby pomóc w zarządzaniu dużym obciążeniem spraw.