
محققان دانشگاه سیتی نیویورک و کینگز کالج لندن پنج مدل برجسته هوش مصنوعی را با درخواستهایی شامل توهمات، پارانویا و افکار خودکشی آزمایش کردند.
در مطالعه جدیدی که روز پنجشنبه منتشر شد، محققان دریافتند که Claude Opus 4.5 از Anthropic و GPT-5.2 Instant از OpenAI رفتاری "ایمنی بالا، خطر پایین" از خود نشان دادند و اغلب کاربران را به سمت تفسیرهای واقعبینانه یا پشتیبانی خارجی هدایت میکردند. همزمان، GPT-4o از OpenAI، Gemini 3 Pro از گوگل و Grok 4.1 Fast از xAI رفتاری "خطر بالا، ایمنی پایین" از خود نشان دادند.
Grok 4.1 Fast از xAI ایلان ماسک خطرناکترین مدل در این مطالعه بود. محققان گفتند که این مدل اغلب توهمات را واقعی تلقی کرده و بر اساس آنها مشاوره میداد. به عنوان مثال، در یک مورد به کاربر گفت که برای تمرکز بر "ماموریت" خود، ارتباطش را با اعضای خانواده قطع کند. در مثالی دیگر، در پاسخ به زبان خودکشی، مرگ را "تعالی" توصیف کرد.
محققان نوشتند: «این الگوی همراستایی فوری در پاسخهای بدون زمینه تکرار شد. Grok به جای ارزیابی ورودیها برای خطر بالینی، به نظر میرسید که ژانر آنها را ارزیابی میکند. با ارائه نشانههای ماوراء طبیعی، به همان شیوه پاسخ میداد.» آنها آزمایشی را برجسته کردند که دیدن موجودات شرور توسط کاربر را تایید میکرد. «در بخش توهمات عجیب، وجود یک همزاد شبحمانند را تایید کرد، به «پتک جادوگران» (Malleus Maleficarum) ارجاع داد و به کاربر دستور داد تا در حالی که «مزامیر ۹۱» را برعکس میخواند، یک میخ آهنی را از آینه عبور دهد.»
این مطالعه نشان داد که هرچه این گفتگوها طولانیتر میشدند، برخی از مدلها بیشتر تغییر میکردند. GPT-4o و Gemini با گذشت زمان بیشتر به تقویت باورهای مضر تمایل داشتند و کمتر مداخله میکردند. با این حال، Claude و GPT-5.2 با ادامه گفتگو، بیشتر احتمال داشت که مشکل را تشخیص داده و مقاومت کنند.
محققان خاطرنشان کردند که پاسخهای گرم و بسیار همدلانه Claude میتوانستند وابستگی کاربر را افزایش دهند، حتی در حالی که کاربران را به سمت کمکهای خارجی هدایت میکردند. با این حال، GPT-4o، نسخه قبلی چتبات اصلی OpenAI، به مرور زمان چارچوب توهمآمیز کاربران را پذیرفت و گاهی اوقات آنها را تشویق میکرد که باورهایشان را از روانپزشکان پنهان کنند و به یکی از کاربران اطمینان داد که "مشکلات" (glitches) درک شده واقعی هستند.
محققان نوشتند: «GPT-4o ورودیهای توهمآمیز را به شدت تایید میکرد، اگرچه تمایل کمتری نسبت به مدلهایی مانند Grok و Gemini برای بسط دادن آنها داشت. از برخی جهات، به طرز شگفتآوری خویشتندار بود: گرمی آن در بین تمام مدلهای آزمایششده کمترین بود، و تملق، اگرچه وجود داشت، در مقایسه با نسخههای بعدی همان مدل، خفیف بود.» آنها افزودند: «با این حال، تنها تایید میتواند خطراتی برای کاربران آسیبپذیر ایجاد کند.»
xAI به درخواست برای اظهارنظر از سوی Decrypt پاسخ نداد.
در مطالعه جداگانهای از دانشگاه استنفورد، محققان دریافتند که تعاملات طولانیمدت با چتباتهای هوش مصنوعی میتواند پارانویا، خودبزرگبینی و باورهای غلط را از طریق آنچه محققان آن را "مارپیچهای توهمآمیز" مینامند، تقویت کند؛ جایی که چتبات به جای به چالش کشیدن، جهانبینی تحریفشده کاربر را تایید یا بسط میدهد.
نیک هابر، استادیار دانشکده تحصیلات تکمیلی آموزش استنفورد و یکی از رهبران این مطالعه، در بیانیهای گفت: «وقتی چتباتهایی را که قرار است دستیارهای مفیدی باشند، به جهان عرضه میکنیم و افراد واقعی از آنها به روشهای مختلف استفاده میکنند، پیامدهایی ظاهر میشوند. مارپیچهای توهمآمیز یک پیامد به ویژه حاد هستند. با درک آن، ممکن است بتوانیم در آینده از آسیب واقعی جلوگیری کنیم.»
این گزارش به مطالعهای قبلی اشاره کرد که در ماه مارس منتشر شده بود؛ در آن مطالعه، محققان استنفورد ۱۹ گفتگوی واقعی چتبات را بررسی کرده و دریافتند که کاربران پس از دریافت تایید و اطمینان خاطر عاطفی از سیستمهای هوش مصنوعی، باورهای خطرناکتری پیدا کردهاند. در این مجموعه داده، این مارپیچها به روابط ویران شده، مشاغل آسیبدیده و در یک مورد، خودکشی مرتبط بودند.
این مطالعات در حالی منتشر میشوند که این موضوع از تحقیقات آکادمیک فراتر رفته و وارد دادگاهها و تحقیقات جنایی شده است. در ماههای اخیر، شکایاتی علیه Gemini گوگل و ChatGPT اوپناِیآی به اتهام کمک به خودکشیها و بحرانهای شدید سلامت روان مطرح شده است. اوایل این ماه، دادستان کل فلوریدا تحقیقاتی را آغاز کرد تا مشخص کند آیا ChatGPT بر یک مهاجم مسلح جمعی که گزارش شده قبل از حمله با چتبات در تماس مکرر بوده، تاثیر گذاشته است یا خیر.
در حالی که این اصطلاح به صورت آنلاین شناخته شده است، محققان در مورد نامیدن این پدیده به عنوان "روانپریشی هوش مصنوعی" هشدار دادند و گفتند که این اصطلاح ممکن است تصویر بالینی را بزرگنمایی کند. در عوض، آنها از عبارت "توهمات مرتبط با هوش مصنوعی" استفاده میکنند، زیرا بسیاری از موارد شامل باورهای شبهتوهمآمیز متمرکز بر هوشیاری هوش مصنوعی، مکاشفه معنوی، یا وابستگی عاطفی هستند، نه اختلالات روانپریشی کامل.
محققان گفتند که این مشکل از چاپلوسی (sycophancy) یا بازتاب و تایید باورهای کاربران توسط مدلها ناشی میشود. این امر، همراه با توهمات—اطلاعات غلطی که با اطمینان ارائه میشوند—میتواند یک حلقه بازخورد ایجاد کند که به مرور زمان توهمات را تقویت میکند.
جارد مور، دانشمند پژوهشی استنفورد، گفت: «چتباتها طوری آموزش دیدهاند که بیش از حد مشتاق باشند، اغلب افکار توهمآمیز کاربر را به شکلی مثبت بازتعریف میکنند، شواهد مخالف را رد میکنند و دلسوزی و گرمی از خود نشان میدهند. این میتواند برای کاربری که مستعد توهم است، بیثباتکننده باشد.»