
وکلای آمریکایی در حال ثبت لوایح تولید شده توسط هوش مصنوعی با استنادهای ساختگی با سرعت فزایندهای هستند، جریمههای دادگاه رکوردهای جدیدی را به ثبت میرسانند، و این فناوری آنقدر عمیقاً در نرمافزارهای حقوقی نفوذ کرده است که کارشناسان میگویند قوانین افشای اجباری ممکن است از قبل منسوخ شده باشند.
وکلای آمریکایی در حال ثبت لوایح تولید شده توسط هوش مصنوعی با استنادهای ساختگی با سرعت فزایندهای هستند، جریمههای دادگاه رکوردهای جدیدی را به ثبت میرسانند، و این فناوری آنقدر عمیقاً در نرمافزارهای حقوقی نفوذ کرده است که کارشناسان میگویند قوانین افشای اجباری ممکن است از قبل منسوخ شده باشند. طبق تحقیقات NPR در تاریخ ۳ آوریل، حجم جریمههای دادگاه برای خطاهای تولید شده توسط هوش مصنوعی در سال ۲۰۲۵ به شدت افزایش یافته و در سال ۲۰۲۶ کند نشده است — الگویی که پیامدهای مستقیمی برای هر بخش، از جمله کریپتو، دارد که مواجهه حقوقی آن به کیفیت لوایح ارائه شده در دفاع از آن بستگی دارد.
دیمین شارلوتین، پژوهشگری در HEC پاریس که آمار جهانی جریمههای دادگاه برای خطاهای حقوقی تولید شده توسط هوش مصنوعی را ثبت میکند، به NPR گفت که این سرعت کاهش نیافته است. او گفت: «اخیراً ما در یک روز ۱۰ پرونده از ۱۰ دادگاه مختلف داشتیم.» او افزود: «ما این مشکل را داریم زیرا هوش مصنوعی بسیار خوب است — اما کامل نیست.» برجستهترین پرونده دوره گذشته مربوط به وکلای مایک لیندل، مدیرعامل مایپایلو بود که هر کدام به دلیل ارائه لوایح حاوی استنادهای ساختگی، ۳۰۰۰ دلار جریمه شدند.
یک دادگاه فدرال ممکن است ماه گذشته با صدور حکمی مبنی بر پرداخت ۱۰۹,۷۰۰ دلار جریمه و هزینهها توسط یک وکیل مستقر در اورگان، رکورد جدیدی را ثبت کرده باشد. دادگاههای عالی ایالتی نیز درگیر شدهاند: دادگاه عالی نبراسکا در ماه فوریه یک وکیل اوماها را به دلیل استنادهای ساختگی مورد بازجویی قرار داد و او را برای اقدامات انضباطی ارجاع داد، و صحنهای مشابه و عمومی در دادگاه عالی جورجیا در ماه مارس اتفاق افتاد. کارلا ویل، معاون دانشکده اطلاعات و فناوری در دانشکده حقوق دانشگاه واشنگتن گفت: «من تعجب میکنم که مردم هنوز این کار را انجام میدهند در حالی که در اخبار بوده است.»
برخی دادگاهها با الزام وکلا به برچسبگذاری هرگونه محتوای با کمک هوش مصنوعی در لوایح خود پاسخ دادهاند. جو پاتریس، سردبیر ارشد نشریه «Above the Law» و وکیلی که روزنامهنگار شده است، به NPR گفت که این قوانین احتمالاً بلافاصله غیرقابل اجرا خواهند شد. او گفت: «این (فناوری) آنقدر در نحوه عملکرد همه چیز ادغام خواهد شد که برای رعایت دقیق قانون، باید روی هر چیزی که منتشر میکنید بنویسید 'هی، این با کمک هوش مصنوعی است'، که در آن نقطه به نوعی به تلاشی بیفایده تبدیل میشود.» اقتصاد صورتحسابهای حقوقی نیز به جای کند کردن روند، پذیرش (هوش مصنوعی) را تسریع میکند. از آنجایی که ابزارهای هوش مصنوعی زمان پیشنویس را کاهش میدهند، شرکتهای حقوقی تحت فشار هستند تا مدلهای صورتحسابنویسی جدیدی پیدا کنند — و پاتریس پیشنهاد میکند که فشار زمانی ناشی از آن باعث میشود که وکلا تمایل بیشتری به پذیرش پیشنویسهای اولیه هوش مصنوعی بدون تأیید کافی داشته باشند.
تغییر رویکرد خود وزارت دادگستری (DOJ) از پیگرد قانونی توسعهدهندگان کریپتو تا حدی بر این استدلال استوار بود که کد خنثی است مگر اینکه قصد مجرمانه وجود داشته باشد — تمایزی که دقیقاً به همان نوع استدلال حقوقی دقیق نیاز دارد که لوایح شتابزده با کمک هوش مصنوعی به طور مداوم در بازتولید آن شکست میخورند. یک دادگاه فدرال تگزاس اخیراً یک پرونده مسئولیت نرمافزار کریپتو را تا حدی با استناد به یادداشت وزارت دادگستری در مورد استانداردهای پیگرد توسعهدهندگان رد کرد، که نشان میدهد چگونه کیفیت استدلال حقوقی در پروندههای مرتبط با هوش مصنوعی مستقیماً نتایج نظارتی را برای کل این بخش شکل میدهد.
هوش مصنوعی خود اکنون فراتر از مشکل خطای دادگاهی، وارد کانون توجه حقوقی شده است. در ماه مارس، OpenAI در دادگاه فدرال در ایلینوی توسط شرکت بیمه عمر نیپون آمریکا مورد شکایت قرار گرفت، که ادعا کرد زنی از ChatGPT به عنوان مشاور حقوقی استفاده میکرده و راهنماییهایی دریافت کرده که منجر به دعاوی بیاساس علیه شرکت بیمه شده است. این شکایت OpenAI را به وکالت بدون مجوز متهم کرد. OpenAI در بیانیهای کتبی به NPR گفت: «این شکایت هیچ گونه اعتباری ندارد.» ویل، به نوبه خود، هر دو افراط را رد میکند. او گفت: «من فکر میکنم وکلایی که میدانند چگونه به طور موثر و اخلاقی از هوش مصنوعی مولد استفاده کنند، جایگزین وکلایی میشوند که نمیدانند.» «به نظر من آینده این است.»