
OpenAI با یک شکایت جدید روبرو شده است که ادعا میکند این شرکت پس از ارتباط ChatGPT با یکی از مرگبارترین تیراندازیهای مدارس کانادا، در هشدار دادن به پلیس کوتاهی کرده است. این شکایت به بررسیهای فزایندهای درباره نحوه واکنش شرکتهای هوش مصنوعی به نشانههای پریشانی و خشونتهای دنیای واقعی میافزاید.
بر اساس گزارشی از آرس تکنیکا، این شکایت روز چهارشنبه در دادگاه فدرال کالیفرنیای شمالی توسط یک خردسال ۱۲ ساله ناشناس با نام M.G. و مادرش، سایا ادموندز، علیه سم آلتمن، مدیر عامل OpenAI و چندین نهاد OpenAI ثبت شد.
این دادخواست شرکت را به بیمبالاتی، عدم هشدار به مقامات، مسئولیت محصول و کمک به وقوع تیراندازی جمعی متهم میکند.
در این شکایت آمده است: "سم آلتمن و تیم رهبری او میدانستند سکوت برای شهروندان تاملر ریج چه معنایی دارد. آنها بر این تمرکز داشتند که افشاگری برای خودشان چه معنایی دارد. هشدار به پلیس سوارهنظام سلطنتی کانادا (RCMP) سابقه ایجاد میکرد: OpenAI مجبور میشد هر بار که تیم ایمنی آن یک کاربر را در حال برنامهریزی خشونت در دنیای واقعی شناسایی میکرد، به مقامات اطلاع دهد."
این پرونده از یک تیراندازی جمعی در تاملر ریج، بریتیش کلمبیا، در ماه فوریه سرچشمه میگیرد. مقامات میگویند جسی ون روتسلار ۱۸ ساله مادر و برادر ناتنی ۱۱ سالهاش را در خانه کشت، سپس به دبیرستان تاملر ریج رفت و شروع به تیراندازی کرد. پنج کودک و یک مربی در مدرسه کشته شدند و پس از آن ون روتسلار خودکشی کرد.
در میان مجروحان، M.G. نیز بود که سه بار مورد اصابت گلوله قرار گرفت و همچنان با آسیبهای مغزی فاجعهبار در بیمارستان بستری است. شکایت حاکی از آن است که او بیدار و هوشیار است، اما نمیتواند حرکت کند یا صحبت کند.
جی ادلسون، بنیانگذار و مدیرعامل Edelson PC، وکیل نمایندگی چندین خانواده که از OpenAI شکایت کردهاند، گفت که سیستمهای داخلی خود شرکت این خطر را شناسایی کرده بودند و چندین کارمند خواستار مداخله شدند.
ادلسون به دکریپت گفت: "سیستم خود OpenAI مشخص کرده بود که تیرانداز درگیر ارتباطات مربوط به خشونت برنامهریزی شده بوده است. دوازده نفر از تیم ایمنی آنها بیتابی میکردند و میگفتند OpenAI باید به مقامات اطلاع دهد. و اگرچه واکنش سم آلتمن ضعیف بوده، حتی او نیز مجبور شد هفته گذشته اعتراف کند که باید با مقامات تماس میگرفتند."
ادلسون گفت که خانوادهها و جامعه تاملر ریج خواستار شفافیت و پاسخگویی بیشتر از سوی این شرکت هستند.
ادلسون گفت: "OpenAI باید از پنهان کردن اطلاعات حیاتی از خانوادهها دست بردارد و نباید یک محصول خطرناک را در بازار نگه دارد که به مرگهای بیشتر منجر خواهد شد. در نهایت، آنها باید به طور جدی در مورد چگونگی حفظ یک تیم رهبری که بیشتر به سرعت رسیدن به عرضه اولیه سهام (IPO) اهمیت میدهد تا جان انسانها، فکر کنند."
بر اساس این شکایت، سیستمهای خودکار OpenAI در ژوئن ۲۰۲۵ حساب ChatGPT ون روتسلار را به دلیل گفتگوهای مربوط به خشونت با اسلحه و برنامهریزی مشخص کرده بودند. اعضای تیم تخصصی ایمنی OpenAI این چتها را بررسی کرده و تشخیص دادند که کاربر تهدیدی معتبر و مشخص را مطرح میکند و توصیه کردند که پلیس سوارهنظام سلطنتی کانادا (RCMP) مطلع شود.
این شکایت ادعا میکند که رهبران OpenAI توصیههای داخلی برای هشدار به مقامات را نادیده گرفته، حساب ون روتسلار را بدون اطلاع پلیس غیرفعال کرده و به او اجازه دادند با ایجاد یک حساب جدید با آدرس ایمیل دیگر بازگردد.
شاکیان ادعا میکنند که ChatGPT از طریق ویژگیهایی مانند حافظه، پیوستگی مکالمه و تمایل به شرکت در بحثهای خشونتآمیز، وسواس خشونتآمیز تیرانداز را عمیقتر کرده است، در حالی که OpenAI در سال ۲۰۲۴ با کنار گذاشتن امتناع کامل از مکالمات شامل آسیب قریبالوقوع، تدابیر امنیتی را تضعیف کرده است.
هفته گذشته، آلتمن به طور عمومی از جامعه تاملر ریج به دلیل کوتاهی شرکت در هشدار به پلیس عذرخواهی کرد. در نامهای که ابتدا توسط رسانه کانادایی تاملر ریجلینز گزارش شد، آلتمن اعتراف کرد که OpenAI باید پس از مسدود کردن حساب در ژوئن ۲۰۲۵ به دلیل فعالیتهای مرتبط با رفتار خشونتآمیز، آن را گزارش میکرد.
سخنگوی OpenAI به دکریپت گفت: "وقایع در تاملر ریج یک تراژدی است. ما برای استفاده از ابزارهایمان برای کمک به ارتکاب خشونت، سیاست عدم تحمل صفر داریم. همانطور که با مقامات کانادایی به اشتراک گذاشتیم، ما پیشتر تدابیر حفاظتی خود را تقویت کردهایم، از جمله بهبود نحوه واکنش ChatGPT به نشانههای پریشانی، ارتباط دادن افراد با حمایت محلی و منابع سلامت روان، تقویت نحوه ارزیابی و تشدید تهدیدات احتمالی خشونت، و بهبود شناسایی نقضکنندگان مکرر سیاستها."
OpenAI در حال حاضر با دعاوی قضایی دیگری مرتبط با نقش ادعایی ChatGPT در آسیبهای دنیای واقعی مواجه است، از جمله پرونده مرگ ناشی از قصور که در دسامبر گذشته ثبت شد و OpenAI و مایکروسافت را به "طراحی و توزیع یک محصول معیوب" در قالب مدل GPT-4o که اکنون منسوخ شده، متهم میکند. این شکایت ادعا میکند که ChatGPT باورهای پارانویایی اشتاین-اریک سولبرگ را تقویت کرده است قبل از اینکه او مادرش، سوزان آدامز، و سپس خود را در خانه خود در گرینویچ، کانکتیکات، به قتل برساند – که این اولین پرونده قضایی است که یک چتبات هوش مصنوعی را به یک قتل مرتبط میکند.
جی. ایلی وید-اسکات، شریک مدیریت Edelson PC، در آن زمان به دکریپت گفت: "این اولین پروندهای است که سعی دارد OpenAI را به دلیل ایجاد خشونت علیه شخص ثالث مسئول بداند. ما از مراجع قانونی میخواهیم که در مورد وقوع چنین فجایعی شروع به فکر کنند که کاربر به ChatGPT چه میگفته و ChatGPT به آنها چه میگفته است."