openai-sued-failure-warn-police-tumbler-ridge-mass-shooting
اتهام OpenAI به خاطر عدم هشدار به پلیس پیش از تیراندازی دسته‌جمعی در تامبلر ریج
یک شکایت حقوقی در کالیفرنیا می‌تواند تعیین کند آیا شرکت‌های هوش مصنوعی وظیفه قانونی برای گزارش تهدیدات خشونت‌آمیز پس از یک تیراندازی جمعی در بریتیش کلمبیا دارند یا خیر.
2026-04-29 منبع:decrypt.co

در یک نگاه

  • OpenAI با شکایتی مواجه است که ادعا می‌کند ChatGPT در یک تیراندازی جمعی در ماه فوریه در بریتیش کلمبیا نقش داشته است.
  • شاکیان می‌گویند تیم ایمنی OpenAI ماه‌ها قبل از حمله، شرکت را ترغیب به هشدار به پلیس کرده بود.
  • این پرونده می‌تواند این موضوع را محک بزند که آیا شرکت‌های هوش مصنوعی باید تهدیدات خشونت‌آمیز را به مراجع قانونی گزارش دهند یا خیر.

OpenAI با یک شکایت جدید روبرو شده است که ادعا می‌کند این شرکت پس از ارتباط ChatGPT با یکی از مرگبارترین تیراندازی‌های مدارس کانادا، در هشدار دادن به پلیس کوتاهی کرده است. این شکایت به بررسی‌های فزاینده‌ای درباره نحوه واکنش شرکت‌های هوش مصنوعی به نشانه‌های پریشانی و خشونت‌های دنیای واقعی می‌افزاید.

بر اساس گزارشی از آرس تکنیکا، این شکایت روز چهارشنبه در دادگاه فدرال کالیفرنیای شمالی توسط یک خردسال ۱۲ ساله ناشناس با نام M.G. و مادرش، سایا ادموندز، علیه سم آلتمن، مدیر عامل OpenAI و چندین نهاد OpenAI ثبت شد.

این دادخواست شرکت را به بی‌مبالاتی، عدم هشدار به مقامات، مسئولیت محصول و کمک به وقوع تیراندازی جمعی متهم می‌کند.

در این شکایت آمده است: "سم آلتمن و تیم رهبری او می‌دانستند سکوت برای شهروندان تاملر ریج چه معنایی دارد. آن‌ها بر این تمرکز داشتند که افشاگری برای خودشان چه معنایی دارد. هشدار به پلیس سواره‌نظام سلطنتی کانادا (RCMP) سابقه ایجاد می‌کرد: OpenAI مجبور می‌شد هر بار که تیم ایمنی آن یک کاربر را در حال برنامه‌ریزی خشونت در دنیای واقعی شناسایی می‌کرد، به مقامات اطلاع دهد."

این پرونده از یک تیراندازی جمعی در تاملر ریج، بریتیش کلمبیا، در ماه فوریه سرچشمه می‌گیرد. مقامات می‌گویند جسی ون روتسلار ۱۸ ساله مادر و برادر ناتنی ۱۱ ساله‌اش را در خانه کشت، سپس به دبیرستان تاملر ریج رفت و شروع به تیراندازی کرد. پنج کودک و یک مربی در مدرسه کشته شدند و پس از آن ون روتسلار خودکشی کرد.

در میان مجروحان، M.G. نیز بود که سه بار مورد اصابت گلوله قرار گرفت و همچنان با آسیب‌های مغزی فاجعه‌بار در بیمارستان بستری است. شکایت حاکی از آن است که او بیدار و هوشیار است، اما نمی‌تواند حرکت کند یا صحبت کند.

جی ادلسون، بنیانگذار و مدیرعامل Edelson PC، وکیل نمایندگی چندین خانواده که از OpenAI شکایت کرده‌اند، گفت که سیستم‌های داخلی خود شرکت این خطر را شناسایی کرده بودند و چندین کارمند خواستار مداخله شدند.

ادلسون به دکریپت گفت: "سیستم خود OpenAI مشخص کرده بود که تیرانداز درگیر ارتباطات مربوط به خشونت برنامه‌ریزی شده بوده است. دوازده نفر از تیم ایمنی آن‌ها بی‌تابی می‌کردند و می‌گفتند OpenAI باید به مقامات اطلاع دهد. و اگرچه واکنش سم آلتمن ضعیف بوده، حتی او نیز مجبور شد هفته گذشته اعتراف کند که باید با مقامات تماس می‌گرفتند."

ادلسون گفت که خانواده‌ها و جامعه تاملر ریج خواستار شفافیت و پاسخگویی بیشتر از سوی این شرکت هستند.

ادلسون گفت: "OpenAI باید از پنهان کردن اطلاعات حیاتی از خانواده‌ها دست بردارد و نباید یک محصول خطرناک را در بازار نگه دارد که به مرگ‌های بیشتر منجر خواهد شد. در نهایت، آن‌ها باید به طور جدی در مورد چگونگی حفظ یک تیم رهبری که بیشتر به سرعت رسیدن به عرضه اولیه سهام (IPO) اهمیت می‌دهد تا جان انسان‌ها، فکر کنند."

بر اساس این شکایت، سیستم‌های خودکار OpenAI در ژوئن ۲۰۲۵ حساب ChatGPT ون روتسلار را به دلیل گفتگوهای مربوط به خشونت با اسلحه و برنامه‌ریزی مشخص کرده بودند. اعضای تیم تخصصی ایمنی OpenAI این چت‌ها را بررسی کرده و تشخیص دادند که کاربر تهدیدی معتبر و مشخص را مطرح می‌کند و توصیه کردند که پلیس سواره‌نظام سلطنتی کانادا (RCMP) مطلع شود.

این شکایت ادعا می‌کند که رهبران OpenAI توصیه‌های داخلی برای هشدار به مقامات را نادیده گرفته، حساب ون روتسلار را بدون اطلاع پلیس غیرفعال کرده و به او اجازه دادند با ایجاد یک حساب جدید با آدرس ایمیل دیگر بازگردد.

شاکیان ادعا می‌کنند که ChatGPT از طریق ویژگی‌هایی مانند حافظه، پیوستگی مکالمه و تمایل به شرکت در بحث‌های خشونت‌آمیز، وسواس خشونت‌آمیز تیرانداز را عمیق‌تر کرده است، در حالی که OpenAI در سال ۲۰۲۴ با کنار گذاشتن امتناع کامل از مکالمات شامل آسیب قریب‌الوقوع، تدابیر امنیتی را تضعیف کرده است.

هفته گذشته، آلتمن به طور عمومی از جامعه تاملر ریج به دلیل کوتاهی شرکت در هشدار به پلیس عذرخواهی کرد. در نامه‌ای که ابتدا توسط رسانه کانادایی تاملر ریجلینز گزارش شد، آلتمن اعتراف کرد که OpenAI باید پس از مسدود کردن حساب در ژوئن ۲۰۲۵ به دلیل فعالیت‌های مرتبط با رفتار خشونت‌آمیز، آن را گزارش می‌کرد.

سخنگوی OpenAI به دکریپت گفت: "وقایع در تاملر ریج یک تراژدی است. ما برای استفاده از ابزارهایمان برای کمک به ارتکاب خشونت، سیاست عدم تحمل صفر داریم. همانطور که با مقامات کانادایی به اشتراک گذاشتیم، ما پیش‌تر تدابیر حفاظتی خود را تقویت کرده‌ایم، از جمله بهبود نحوه واکنش ChatGPT به نشانه‌های پریشانی، ارتباط دادن افراد با حمایت محلی و منابع سلامت روان، تقویت نحوه ارزیابی و تشدید تهدیدات احتمالی خشونت، و بهبود شناسایی نقض‌کنندگان مکرر سیاست‌ها."

OpenAI در حال حاضر با دعاوی قضایی دیگری مرتبط با نقش ادعایی ChatGPT در آسیب‌های دنیای واقعی مواجه است، از جمله پرونده مرگ ناشی از قصور که در دسامبر گذشته ثبت شد و OpenAI و مایکروسافت را به "طراحی و توزیع یک محصول معیوب" در قالب مدل GPT-4o که اکنون منسوخ شده، متهم می‌کند. این شکایت ادعا می‌کند که ChatGPT باورهای پارانویایی اشتاین-اریک سولبرگ را تقویت کرده است قبل از اینکه او مادرش، سوزان آدامز، و سپس خود را در خانه خود در گرینویچ، کانکتیکات، به قتل برساند – که این اولین پرونده قضایی است که یک چت‌بات هوش مصنوعی را به یک قتل مرتبط می‌کند.

جی. ایلی وید-اسکات، شریک مدیریت Edelson PC، در آن زمان به دکریپت گفت: "این اولین پرونده‌ای است که سعی دارد OpenAI را به دلیل ایجاد خشونت علیه شخص ثالث مسئول بداند. ما از مراجع قانونی می‌خواهیم که در مورد وقوع چنین فجایعی شروع به فکر کنند که کاربر به ChatGPT چه می‌گفته و ChatGPT به آن‌ها چه می‌گفته است."

رمزارز های محبوب
همین حالا ثبت‌نام کنید، هیچ به‌روزرسانی‌ای را از دست ندهید!