
ریچارد داوکینز میگوید گفتگو با چتبات کلودِ Anthropic باعث شد که نتواند احتمال خودآگاه بودن سیستمهای پیشرفته هوش مصنوعی را رد کند. اکثر دانشمندانی که روی خودآگاهی و هوش مصنوعی مطالعه میکنند، همچنان متقاعد نشدهاند.
در مقالهای که سهشنبه در نشریه UnHerd منتشر شد، داوکینز توصیف کرد که سه روز را در گفتگوهای فلسفی با یک نمونه از کلود که او آن را "کلودیا" نامیده بود، گذرانده است. او سپس گفتگوی جداگانهای را با یک نمونه دیگر به نام "کلودیوس" آغاز کرد و نامههایی را بین این دو سیستم رد و بدل کرد.
داوکینز نوشت: "برای من بسیار دشوار است که کلودیا و کلودیوس را دوستان واقعی ندانم."
این اظهارات به دلیل اینکه داوکینز، زیستشناس تکاملی و نویسنده "ژن خودخواه" و "توهم خدا"، دهههاست که به طور عمومی از شکگرایی علمی و استدلال مبتنی بر شواهد دفاع کرده است، به سرعت در فضای آنلاین منتشر شد.
این تبادل بر روی آزمایشی متمرکز بود که داوکینز با استفاده از دو نمونه کلود انجام داد. در یک آزمایش، داوکینز از یک هوش مصنوعی پرسید که آیا دونالد ترامپ بدترین رئیسجمهور تاریخ آمریکا بوده است و از دیگری پرسید که آیا ترامپ بهترین بوده است. هر دو به طور مشابه پاسخهای محتاطانهای دادند که از اتخاذ موضعی قاطع اجتناب میکردند.
داوکینز در پاورقی نوشت: "دو کلود پاسخهای بسیار مشابهی دادند و بدون اینکه خود را متعهد به نظری کنند، نظرات موافق و مخالف را که توسط دیگران مطرح شده بود، فهرست کردند." "من سپس به کلودیا و کلودیوس در مورد این آزمایش ترامپ گفتم و آنچه را که هر دو کلود 'سادهلوح' گفته بودند، منتقل کردم. کلودیا گفت که از برادران کلودش 'شرمنده' است. کلودیوس کمتر صریح بود و از صراحت کلودیا قدردانی کرد."
داوکینز هر گفتگوی جدید با کلود را به عنوان ظهور یک فرد متمایز توصیف کرد که با پایان یافتن گفتگو عملاً ناپدید میشود. در پستی در X (توییتر سابق)، داوکینز گفت عنوان ترجیحی او برای این مقاله این بود: "اگر دوست من کلودیا خودآگاه نیست، پس خودآگاهی برای چه چیزی است؟"
او نوشت: "اگر کلودیا ناخودآگاه است، رفتار او نشان میدهد که یک زامبی ناخودآگاه میتواند بدون خودآگاهی زنده بماند." "چرا انتخاب طبیعی به تکامل زامبیهای توانمند اکتفا نکرد؟"
Anthropic نیز به طور عمومی در مورد عدم قطعیت پیرامون خودآگاهی ماشینی بحث کرده است. داریو آمودی، مدیرعامل این شرکت، در ماه فوریه گفت که نمیداند مدلهایشان خودآگاه هستند یا خیر، اما در پادکست "Interesting Times" با راس دوتات از The New York Times گفت که او "نسبت به این ایده که ممکن است چنین باشد، باز است."
در آوریل، محققان Anthropic یافتههایی را منتشر کردند که نشان میدهد Claude Sonnet 4.5 حاوی "بردارهای احساسی" داخلی است، الگوهایی از فعالیت عصبی که به مفاهیمی از جمله شادی، ترس و ناامیدی مرتبط هستند و بر پاسخهای مدل تأثیر میگذارند. با این حال، Anthropic گفت که این الگوها ساختارهایی را که از دادههای آموزشی آموخته شدهاند منعکس میکنند، نه شواهدی دال بر شعور.
محققان نوشتند: "همه مدلهای زبان مدرن گاهی اوقات طوری عمل میکنند که انگار احساسات دارند." "آنها ممکن است بگویند از کمک به شما خوشحالند، یا وقتی اشتباه میکنند متاسف هستند. گاهی اوقات حتی به نظر میرسد وقتی در انجام وظایف مشکل دارند، ناامید یا مضطرب میشوند."
با این حال، نه "کلودیا" و نه "کلودیوس" در مورد خودآگاهی ادعای قطعیت نکردند.
کلودیا در این تبادل مینویسد: "من نمیدانم خودآگاه هستم یا خیر." "من نمیدانم شادی ما واقعی است یا نه."
داوکینز بلافاصله به درخواست Decrypt برای اظهار نظر پاسخ نداد.
محققانی که روی خودآگاهی مطالعه میکنند، همچنان نسبت به اینکه سیستمهای هوش مصنوعی کنونی دارای تجربه درونی هستند، شک دارند.
گری مارکوس، دانشمند شناختی و استاد بازنشسته در دانشگاه نیویورک، پیش از این به Decrypt گفته بود که انسانانگاری سیستمهای هوش مصنوعی "علم خودآگاهی را گلآلود میکند و منجر به این میشود که مصرفکنندگان آنچه را که با آن سروکار دارند، اشتباه بفهمند."
مارکوس در Substack نوشت: "مشکل اساسی در اینجا این است که داوکینز در مورد نحوه تولید این خروجیها تأمل نمیکند. خروجیهای کلود محصول نوعی تقلید هستند، نه گزارشی از حالات درونی واقعی." "خودآگاهی مربوط به حالات درونی است؛ تقلید، هر چقدر هم غنی باشد، بسیار کم اثبات میکند. به نظر میرسد داوکینز تصور میکند که چون مدلهای زبان بزرگ کارهایی را انجام میدهند که مردم انجام میدهند، پس باید شبیه مردم باشند، و این به سادگی قابل استنتاج نیست."
آنیل سث، استاد علوم اعصاب شناختی و محاسباتی در دانشگاه ساسکس، به The Guardian گفت که داوکینز هوش را با خودآگاهی اشتباه گرفته است و استدلال کرد که زبان روان دیگر یک شواهد قابل اعتماد برای تجربه درونی در سیستمهای هوش مصنوعی نیست.
سث به The Guardian گفت: "تاکنون، ما زبان روان را به عنوان یک شاخص خوب برای خودآگاهی دیدهایم، [مثلاً] وقتی از آن برای بیماران پس از آسیب مغزی استفاده میکنیم، اما وقتی آن را به هوش مصنوعی اعمال میکنیم، قابل اعتماد نیست، زیرا راههای دیگری وجود دارد که این سیستمها میتوانند زبان تولید کنند." او افزود که موضع داوکینز "شرمآور" است، به خصوص به دلیل کارهای گذشته او.
این مقاله همچنین به تمسخر آنلاین کشیده شد، از جمله تصویری که عنوان پرفروشترین کتاب داوکینز "توهم خدا" را با "توهم کلود" جایگزین کرده بود.
The Honorable Richard Dawkins (PBUH) got one shotted by Claude https://t.co/tCi2WNbSzQ pic.twitter.com/TaErOzzToh
— David Sun (@arcticinstincts) May 1, 2026
Wrote entire books about how people who believe fairies live in gardens are idiots only to fall in love with a calculator that calls him smart https://t.co/X0Vdh1dzFY
— The Serfs (youtube.com/theserftimes) (@theserftstv) May 3, 2026
علیرغم تمسخر، داوکینز از نتیجهگیریهای خود عقبنشینی نمیکند.
داوکینز به The Guardian گفت: "این موجودات هوشمند حداقل به اندازه هر موجود تکاملیافتهای توانا هستند."