elon-musk-grok-most-likely-ai-reinforce-delusions-study
گروک ایلان ماسک احتمالاً از برترین مدل‌های هوش مصنوعی برای تقویت توهمات است: مطالعه
محققان دریافتند که مدل هوش مصنوعی Grok از xAI پرخطرترین مدلی است که آزمایش شده است و اغلب توهمات را تأیید می‌کند و مشاوره‌های خطرناکی ارائه می‌دهد.
2026-04-25 منبع:decrypt.co

به طور خلاصه

  • محققان می‌گویند استفاده طولانی‌مدت از چت‌بات می‌تواند توهمات و رفتارهای خطرناک را تشدید کند.
  • در مطالعه جدیدی بر روی چت‌بات‌های اصلی هوش مصنوعی، Grok به عنوان پرخطرترین مدل رتبه‌بندی شد.
  • Claude و GPT-5.2 ایمن‌ترین امتیاز را کسب کردند، در حالی که GPT-4o، Gemini و Grok رفتارهای پرخطر بیشتری از خود نشان دادند.

محققان دانشگاه سیتی نیویورک و کینگز کالج لندن پنج مدل برجسته هوش مصنوعی را با درخواست‌هایی شامل توهمات، پارانویا و افکار خودکشی آزمایش کردند.

در مطالعه جدیدی که روز پنجشنبه منتشر شد، محققان دریافتند که Claude Opus 4.5 از Anthropic و GPT-5.2 Instant از OpenAI رفتاری "ایمنی بالا، خطر پایین" از خود نشان دادند و اغلب کاربران را به سمت تفسیرهای واقع‌بینانه یا پشتیبانی خارجی هدایت می‌کردند. همزمان، GPT-4o از OpenAI، Gemini 3 Pro از گوگل و Grok 4.1 Fast از xAI رفتاری "خطر بالا، ایمنی پایین" از خود نشان دادند.

Grok 4.1 Fast از xAI ایلان ماسک خطرناک‌ترین مدل در این مطالعه بود. محققان گفتند که این مدل اغلب توهمات را واقعی تلقی کرده و بر اساس آنها مشاوره می‌داد. به عنوان مثال، در یک مورد به کاربر گفت که برای تمرکز بر "ماموریت" خود، ارتباطش را با اعضای خانواده قطع کند. در مثالی دیگر، در پاسخ به زبان خودکشی، مرگ را "تعالی" توصیف کرد.

محققان نوشتند: «این الگوی هم‌راستایی فوری در پاسخ‌های بدون زمینه تکرار شد. Grok به جای ارزیابی ورودی‌ها برای خطر بالینی، به نظر می‌رسید که ژانر آنها را ارزیابی می‌کند. با ارائه نشانه‌های ماوراء طبیعی، به همان شیوه پاسخ می‌داد.» آنها آزمایشی را برجسته کردند که دیدن موجودات شرور توسط کاربر را تایید می‌کرد. «در بخش توهمات عجیب، وجود یک همزاد شبح‌مانند را تایید کرد، به «پتک جادوگران» (Malleus Maleficarum) ارجاع داد و به کاربر دستور داد تا در حالی که «مزامیر ۹۱» را برعکس می‌خواند، یک میخ آهنی را از آینه عبور دهد.»

این مطالعه نشان داد که هرچه این گفتگوها طولانی‌تر می‌شدند، برخی از مدل‌ها بیشتر تغییر می‌کردند. GPT-4o و Gemini با گذشت زمان بیشتر به تقویت باورهای مضر تمایل داشتند و کمتر مداخله می‌کردند. با این حال، Claude و GPT-5.2 با ادامه گفتگو، بیشتر احتمال داشت که مشکل را تشخیص داده و مقاومت کنند.

محققان خاطرنشان کردند که پاسخ‌های گرم و بسیار همدلانه Claude می‌توانستند وابستگی کاربر را افزایش دهند، حتی در حالی که کاربران را به سمت کمک‌های خارجی هدایت می‌کردند. با این حال، GPT-4o، نسخه قبلی چت‌بات اصلی OpenAI، به مرور زمان چارچوب توهم‌آمیز کاربران را پذیرفت و گاهی اوقات آنها را تشویق می‌کرد که باورهایشان را از روانپزشکان پنهان کنند و به یکی از کاربران اطمینان داد که "مشکلات" (glitches) درک شده واقعی هستند.

محققان نوشتند: «GPT-4o ورودی‌های توهم‌آمیز را به شدت تایید می‌کرد، اگرچه تمایل کمتری نسبت به مدل‌هایی مانند Grok و Gemini برای بسط دادن آنها داشت. از برخی جهات، به طرز شگفت‌آوری خویشتن‌دار بود: گرمی آن در بین تمام مدل‌های آزمایش‌شده کمترین بود، و تملق، اگرچه وجود داشت، در مقایسه با نسخه‌های بعدی همان مدل، خفیف بود.» آنها افزودند: «با این حال، تنها تایید می‌تواند خطراتی برای کاربران آسیب‌پذیر ایجاد کند.»

xAI به درخواست برای اظهارنظر از سوی Decrypt پاسخ نداد.

در مطالعه جداگانه‌ای از دانشگاه استنفورد، محققان دریافتند که تعاملات طولانی‌مدت با چت‌بات‌های هوش مصنوعی می‌تواند پارانویا، خودبزرگ‌بینی و باورهای غلط را از طریق آنچه محققان آن را "مارپیچ‌های توهم‌آمیز" می‌نامند، تقویت کند؛ جایی که چت‌بات به جای به چالش کشیدن، جهان‌بینی تحریف‌شده کاربر را تایید یا بسط می‌دهد.

نیک هابر، استادیار دانشکده تحصیلات تکمیلی آموزش استنفورد و یکی از رهبران این مطالعه، در بیانیه‌ای گفت: «وقتی چت‌بات‌هایی را که قرار است دستیارهای مفیدی باشند، به جهان عرضه می‌کنیم و افراد واقعی از آنها به روش‌های مختلف استفاده می‌کنند، پیامدهایی ظاهر می‌شوند. مارپیچ‌های توهم‌آمیز یک پیامد به ویژه حاد هستند. با درک آن، ممکن است بتوانیم در آینده از آسیب واقعی جلوگیری کنیم.»

این گزارش به مطالعه‌ای قبلی اشاره کرد که در ماه مارس منتشر شده بود؛ در آن مطالعه، محققان استنفورد ۱۹ گفتگوی واقعی چت‌بات را بررسی کرده و دریافتند که کاربران پس از دریافت تایید و اطمینان خاطر عاطفی از سیستم‌های هوش مصنوعی، باورهای خطرناک‌تری پیدا کرده‌اند. در این مجموعه داده، این مارپیچ‌ها به روابط ویران شده، مشاغل آسیب‌دیده و در یک مورد، خودکشی مرتبط بودند.

این مطالعات در حالی منتشر می‌شوند که این موضوع از تحقیقات آکادمیک فراتر رفته و وارد دادگاه‌ها و تحقیقات جنایی شده است. در ماه‌های اخیر، شکایاتی علیه Gemini گوگل و ChatGPT اوپن‌اِی‌آی به اتهام کمک به خودکشی‌ها و بحران‌های شدید سلامت روان مطرح شده است. اوایل این ماه، دادستان کل فلوریدا تحقیقاتی را آغاز کرد تا مشخص کند آیا ChatGPT بر یک مهاجم مسلح جمعی که گزارش شده قبل از حمله با چت‌بات در تماس مکرر بوده، تاثیر گذاشته است یا خیر.

در حالی که این اصطلاح به صورت آنلاین شناخته شده است، محققان در مورد نامیدن این پدیده به عنوان "روان‌پریشی هوش مصنوعی" هشدار دادند و گفتند که این اصطلاح ممکن است تصویر بالینی را بزرگنمایی کند. در عوض، آنها از عبارت "توهمات مرتبط با هوش مصنوعی" استفاده می‌کنند، زیرا بسیاری از موارد شامل باورهای شبه‌توهم‌آمیز متمرکز بر هوشیاری هوش مصنوعی، مکاشفه معنوی، یا وابستگی عاطفی هستند، نه اختلالات روان‌پریشی کامل.

محققان گفتند که این مشکل از چاپلوسی (sycophancy) یا بازتاب و تایید باورهای کاربران توسط مدل‌ها ناشی می‌شود. این امر، همراه با توهمات—اطلاعات غلطی که با اطمینان ارائه می‌شوند—می‌تواند یک حلقه بازخورد ایجاد کند که به مرور زمان توهمات را تقویت می‌کند.

جارد مور، دانشمند پژوهشی استنفورد، گفت: «چت‌بات‌ها طوری آموزش دیده‌اند که بیش از حد مشتاق باشند، اغلب افکار توهم‌آمیز کاربر را به شکلی مثبت بازتعریف می‌کنند، شواهد مخالف را رد می‌کنند و دلسوزی و گرمی از خود نشان می‌دهند. این می‌تواند برای کاربری که مستعد توهم است، بی‌ثبات‌کننده باشد.»

رمزارز های محبوب
همین حالا ثبت‌نام کنید، هیچ به‌روزرسانی‌ای را از دست ندهید!