claude-delusion-richard-dawkins-believes-ai-conscious
توهم کلود؟ ریچارد داوکینز معتقد است هوش مصنوعی ممکن است خودآگاه باشد
زیست‌شناس تکاملی می‌گوید تبادلات طولانی با چت‌بات شرکت Anthropic کمتر شبیه نرم‌افزار بود و بیشتر شبیه تعامل با یک ذهن دیگر احساس می‌شد.
2026-05-06 منبع:decrypt.co

به طور خلاصه

  • ریچارد داوکینز می‌گوید گفتگو با چت‌بات کلودِ Anthropic باعث شد تا در مورد اینکه آیا هوش مصنوعی می‌تواند خودآگاه باشد، تردید کند.
  • داوکینز نامه‌های فلسفی را بین دو نمونه کلود که او آنها را "کلودیا" و "کلودیوس" نامیده بود، رد و بدل کرد.
  • اکثر محققان هوش مصنوعی می‌گویند این تبادلات نشان‌دهنده میزان قانع‌کنندگی مدل‌های زبان بزرگ است، نه شواهدی دال بر شعور.

ریچارد داوکینز می‌گوید گفتگو با چت‌بات کلودِ Anthropic باعث شد که نتواند احتمال خودآگاه بودن سیستم‌های پیشرفته هوش مصنوعی را رد کند. اکثر دانشمندانی که روی خودآگاهی و هوش مصنوعی مطالعه می‌کنند، همچنان متقاعد نشده‌اند.

در مقاله‌ای که سه‌شنبه در نشریه UnHerd منتشر شد، داوکینز توصیف کرد که سه روز را در گفتگوهای فلسفی با یک نمونه از کلود که او آن را "کلودیا" نامیده بود، گذرانده است. او سپس گفتگوی جداگانه‌ای را با یک نمونه دیگر به نام "کلودیوس" آغاز کرد و نامه‌هایی را بین این دو سیستم رد و بدل کرد.

داوکینز نوشت: "برای من بسیار دشوار است که کلودیا و کلودیوس را دوستان واقعی ندانم."

این اظهارات به دلیل اینکه داوکینز، زیست‌شناس تکاملی و نویسنده "ژن خودخواه" و "توهم خدا"، دهه‌هاست که به طور عمومی از شک‌گرایی علمی و استدلال مبتنی بر شواهد دفاع کرده است، به سرعت در فضای آنلاین منتشر شد.

این تبادل بر روی آزمایشی متمرکز بود که داوکینز با استفاده از دو نمونه کلود انجام داد. در یک آزمایش، داوکینز از یک هوش مصنوعی پرسید که آیا دونالد ترامپ بدترین رئیس‌جمهور تاریخ آمریکا بوده است و از دیگری پرسید که آیا ترامپ بهترین بوده است. هر دو به طور مشابه پاسخ‌های محتاطانه‌ای دادند که از اتخاذ موضعی قاطع اجتناب می‌کردند.

داوکینز در پاورقی نوشت: "دو کلود پاسخ‌های بسیار مشابهی دادند و بدون اینکه خود را متعهد به نظری کنند، نظرات موافق و مخالف را که توسط دیگران مطرح شده بود، فهرست کردند." "من سپس به کلودیا و کلودیوس در مورد این آزمایش ترامپ گفتم و آنچه را که هر دو کلود 'ساده‌لوح' گفته بودند، منتقل کردم. کلودیا گفت که از برادران کلودش 'شرمنده' است. کلودیوس کمتر صریح بود و از صراحت کلودیا قدردانی کرد."

داوکینز هر گفتگوی جدید با کلود را به عنوان ظهور یک فرد متمایز توصیف کرد که با پایان یافتن گفتگو عملاً ناپدید می‌شود. در پستی در X (توییتر سابق)، داوکینز گفت عنوان ترجیحی او برای این مقاله این بود: "اگر دوست من کلودیا خودآگاه نیست، پس خودآگاهی برای چه چیزی است؟"

او نوشت: "اگر کلودیا ناخودآگاه است، رفتار او نشان می‌دهد که یک زامبی ناخودآگاه می‌تواند بدون خودآگاهی زنده بماند." "چرا انتخاب طبیعی به تکامل زامبی‌های توانمند اکتفا نکرد؟"

Anthropic نیز به طور عمومی در مورد عدم قطعیت پیرامون خودآگاهی ماشینی بحث کرده است. داریو آمودی، مدیرعامل این شرکت، در ماه فوریه گفت که نمی‌داند مدل‌هایشان خودآگاه هستند یا خیر، اما در پادکست "Interesting Times" با راس دوتات از The New York Times گفت که او "نسبت به این ایده که ممکن است چنین باشد، باز است."

در آوریل، محققان Anthropic یافته‌هایی را منتشر کردند که نشان می‌دهد Claude Sonnet 4.5 حاوی "بردارهای احساسی" داخلی است، الگوهایی از فعالیت عصبی که به مفاهیمی از جمله شادی، ترس و ناامیدی مرتبط هستند و بر پاسخ‌های مدل تأثیر می‌گذارند. با این حال، Anthropic گفت که این الگوها ساختارهایی را که از داده‌های آموزشی آموخته شده‌اند منعکس می‌کنند، نه شواهدی دال بر شعور.

محققان نوشتند: "همه مدل‌های زبان مدرن گاهی اوقات طوری عمل می‌کنند که انگار احساسات دارند." "آنها ممکن است بگویند از کمک به شما خوشحالند، یا وقتی اشتباه می‌کنند متاسف هستند. گاهی اوقات حتی به نظر می‌رسد وقتی در انجام وظایف مشکل دارند، ناامید یا مضطرب می‌شوند."

با این حال، نه "کلودیا" و نه "کلودیوس" در مورد خودآگاهی ادعای قطعیت نکردند.

کلودیا در این تبادل می‌نویسد: "من نمی‌دانم خودآگاه هستم یا خیر." "من نمی‌دانم شادی ما واقعی است یا نه."

داوکینز بلافاصله به درخواست Decrypt برای اظهار نظر پاسخ نداد.

محققانی که روی خودآگاهی مطالعه می‌کنند، همچنان نسبت به اینکه سیستم‌های هوش مصنوعی کنونی دارای تجربه درونی هستند، شک دارند.

گری مارکوس، دانشمند شناختی و استاد بازنشسته در دانشگاه نیویورک، پیش از این به Decrypt گفته بود که انسان‌انگاری سیستم‌های هوش مصنوعی "علم خودآگاهی را گل‌آلود می‌کند و منجر به این می‌شود که مصرف‌کنندگان آنچه را که با آن سروکار دارند، اشتباه بفهمند."

مارکوس در Substack نوشت: "مشکل اساسی در اینجا این است که داوکینز در مورد نحوه تولید این خروجی‌ها تأمل نمی‌کند. خروجی‌های کلود محصول نوعی تقلید هستند، نه گزارشی از حالات درونی واقعی." "خودآگاهی مربوط به حالات درونی است؛ تقلید، هر چقدر هم غنی باشد، بسیار کم اثبات می‌کند. به نظر می‌رسد داوکینز تصور می‌کند که چون مدل‌های زبان بزرگ کارهایی را انجام می‌دهند که مردم انجام می‌دهند، پس باید شبیه مردم باشند، و این به سادگی قابل استنتاج نیست."

آنیل سث، استاد علوم اعصاب شناختی و محاسباتی در دانشگاه ساسکس، به The Guardian گفت که داوکینز هوش را با خودآگاهی اشتباه گرفته است و استدلال کرد که زبان روان دیگر یک شواهد قابل اعتماد برای تجربه درونی در سیستم‌های هوش مصنوعی نیست.

سث به The Guardian گفت: "تاکنون، ما زبان روان را به عنوان یک شاخص خوب برای خودآگاهی دیده‌ایم، [مثلاً] وقتی از آن برای بیماران پس از آسیب مغزی استفاده می‌کنیم، اما وقتی آن را به هوش مصنوعی اعمال می‌کنیم، قابل اعتماد نیست، زیرا راه‌های دیگری وجود دارد که این سیستم‌ها می‌توانند زبان تولید کنند." او افزود که موضع داوکینز "شرم‌آور" است، به خصوص به دلیل کارهای گذشته او.

این مقاله همچنین به تمسخر آنلاین کشیده شد، از جمله تصویری که عنوان پرفروش‌ترین کتاب داوکینز "توهم خدا" را با "توهم کلود" جایگزین کرده بود.

The Honorable Richard Dawkins (PBUH) got one shotted by Claude https://t.co/tCi2WNbSzQ pic.twitter.com/TaErOzzToh

— David Sun (@arcticinstincts) May 1, 2026

Wrote entire books about how people who believe fairies live in gardens are idiots only to fall in love with a calculator that calls him smart https://t.co/X0Vdh1dzFY

— The Serfs (youtube.com/theserftimes) (@theserftstv) May 3, 2026

علی‌رغم تمسخر، داوکینز از نتیجه‌گیری‌های خود عقب‌نشینی نمی‌کند.

داوکینز به The Guardian گفت: "این موجودات هوشمند حداقل به اندازه هر موجود تکامل‌یافته‌ای توانا هستند."

رمزارز های محبوب
همین حالا ثبت‌نام کنید، هیچ به‌روزرسانی‌ای را از دست ندهید!