
متا روز چهارشنبه موز اسپارک (Muse Spark) را راهاندازی کرد، که اولین مدل ساخته شده توسط آزمایشگاههای فرا هوش متا (Meta Superintelligence Labs) است—تیمی که نُه ماه پیش تحت نظر افسر ارشد هوش مصنوعی، الکساندر وانگ، پس از خرید ۱۴ میلیارد دلاری Scale AI توسط متا، تشکیل شد. این مدل اکنون در meta.ai و اپلیکیشن Meta AI فعال است و در هفتههای آینده به فیسبوک، اینستاگرام و واتساپ نیز عرضه خواهد شد.
این فقط یک بهروزرسانی دیگر برای چتبات یا نسخه جدیدی از لاما (Llama) نیست. موز اسپارک ذاتاً چندوجهی (multimodal) است—تصاویر، متن و صدا را از پایه پردازش میکند، نه اینکه قابلیت دیداری را به یک مدل متنی موجود اضافه کند. این مدل با زنجیره فکری بصری (visual chain-of-thought)، پشتیبانی از ابزارها (tool-use support) و چیزی که متا آن را «حالت تعمق» (Contemplating mode) مینامد، ارائه میشود: تنظیماتی که چندین عامل هوش مصنوعی (AI agents) را به صورت موازی برای حل مشکلات پیچیدهتر اجرا میکند. این پاسخ متا به حالتهای تفکر گستردهتر جیمنای دیپ تینک (Gemini Deep Think) گوگل و GPT پرو (GPT Pro) اوپنایآی است.
متا در یک اعلامیه رسمی نوشت: «موز اسپارک اولین قدم در نردبان مقیاسپذیری ما و اولین محصول از بازنگری اساسی تلاشهای هوش مصنوعی ما است.» «برای حمایت از مقیاسپذیری بیشتر، ما در کل مجموعه—از تحقیقات و آموزش مدل گرفته تا زیرساختها، از جمله مرکز داده هایپریون (Hyperion)—سرمایهگذاریهای استراتژیک انجام میدهیم.»
این شرکت با بیش از ۱۰۰۰ پزشک همکاری کرد تا دادههای آموزشی را برای استدلال پزشکی موز اسپارک (Muse Spark) انتخاب و سازماندهی کند. نتایج در HealthBench Hard—یک معیار برای پرسشهای بهداشتی باز—شگفتانگیز است: موز اسپارک امتیاز ۴۲.۸ را کسب کرد، در مقایسه با ۴۰.۱ برای GPT 5.4 و تنها ۲۰.۶ برای Gemini 3.1 Pro. این تفاوت ناچیزی نیست.
در جستجوی عاملمحور (agentic search) (DeepSearchQA)، موز اسپارک با امتیاز ۷۴.۸ نیز پیشتاز است و جیمنای (۶۹.۷) و GPT 5.4 (۷۳.۶) را پشت سر میگذارد. در CharXiv Reasoning—درک ارقام از مقالات علمی—این مدل ۸۶.۴ امتیاز کسب کرد که بالاترین امتیاز در بین مدلهای مورد مقایسه است.
برای کسانی که به «جیلبریک کردن» هوش مصنوعی علاقهمند هستند، این مدل در عرض چند دقیقه شکسته شد:
🚰 SYSTEM PROMPT LEAK 🚰
Here's the full Muse Spark system prompt from Meta!
I noticed @AIatMeta forgot to open source it, so I've done them the courtesy 😘
PROMPT:
"""
Who are you?You are a friendly, intelligent, and agentic AI assistant. You are warm and a bit playful.…
— Pliny the Liberator 🐉󠅫󠄼󠄿󠅆󠄵󠄐󠅀󠄼󠄹󠄾󠅉󠅭 (@elder_plinius) April 8, 2026
اما خوب بودن به معنای عالی بودن نیست. تصویر کلی معیارها نشان میدهد که Gemini 3.1 Pro همچنان در بیشتر دستهبندیها پیشتاز است. این شکاف در ARC AGI 2، معیار پازل استدلال انتزاعی، بیشتر نمایان است: جیمنای ۷۶.۵ امتیاز و موز اسپارک ۴۲.۵ امتیاز کسب کرد.
در کدنویسی (LiveCodeBench Pro)، جیمنای با ۸۲.۹ امتیاز از ۸۰.۰ امتیاز متا پیشی میگیرد. در MMMU Pro—درک چندوجهی—جیمنای ۸۳.۹ امتیاز در مقابل ۸۰.۴ امتیاز کسب کرد. بلاگ رسمی متا به شکافهای عملکردی فعلی در سیستمهای عاملمحور با افق طولانی (long-horizon agentic systems) و گردش کار کدنویسی اذعان دارد.
یک تغییر استراتژیک قابل توجه نیز در این عرضه گنجانده شده است. موز اسپارک یک مدل بسته (closed model) است—معماری و وزنهای آن عمومی نخواهد شد. این یک انحراف چشمگیر از لاما (Llama) است که شهرت متا را در محافل هوش مصنوعی باز (open AI) ایجاد کرده بود. پس از استقبال نه چندان چشمگیر از Llama 4 در اوایل سال جاری، به نظر میرسد متا تصمیم گرفته است که فصل بعدی باید به گونهای متفاوت نوشته شود.
این شرکت میگوید امیدوار است نسخههای آتی Muse را متنباز (open-source) کند، اما فعلاً کد در داخل متا باقی میماند. سهام این غول فناوری روز چهارشنبه پس از این اعلامیه تقریباً ۹ درصد افزایش یافت و روز معاملاتی را با ۶.۵ درصد افزایش به قیمت ۶۱۲.۴۲ دلار به پایان رساند.
«حالت تعمق» (Contemplating mode) از هماهنگی موازی عاملها (parallel agent orchestration) برای ارتقاء سقف عملکرد مدل استفاده میکند. در این پیکربندی، موز اسپارک در «آخرین امتحان بشریت» (Humanity's Last Exam) به ۵۸% و در «تحقیقات علوم مرزی» (FrontierScience Research) به ۳۸% دست یافت—دامنهای که آن را با توانمندترین نسخههای جیمنای و GPT رقابتی میکند، نه با نسخههای استاندارد آنها.
متا همچنین در حال عرضه یک دستیار خرید است که محصولات را مقایسه میکند و مستقیماً به خریدها لینک میدهد، و قصد دارد موز اسپارک را در هفتههای آینده به فیسبوک، اینستاگرام و واتساپ بیاورد—با پیروی از همان رویکردی که از زمان Llama 3 اجرا شده بود، و آن را در دسترس بیش از ۳.۵ میلیارد کاربر قرار دهد. یک پیشنمایش خصوصی API نیز برای توسعهدهندگان منتخب در حال راهاندازی است.
این مدل در نُه ماه ساخته شد و با نام کد داخلی «آووکادو» (Avocado) شناخته میشد، در حالی که متا ادعا میکند پشته پیشآموزش جدید آن میتواند با استفاده از بیش از ۱۰ برابر محاسبات کمتر، به همان سطح توانایی Llama 4 Maverick برسد.
موز اسپارک در داخل به عنوان اولین قدم «کوچک و سریع» در خانواده Muse توصیف میشود. یک نسخه توانمندتر نیز در حال توسعه است.