
أصدرت OpenAI نموذج GPT-5.5-Cyber للمدافعين السيبرانيين المعتمدين، مما يوفر لهم حواجز حماية مخفضة لسير العمل الأمني المتخصص.
أصدرت OpenAI نموذج GPT-5.5-Cyber في 7 مايو في معاينة محدودة، مستهدفة المتخصصين في الأمن الذين يدافعون عن البنية التحتية الحيوية. تصف الشركة النموذج بأنه الأكثر تساهلاً في مجموعتها للأمن السيبراني، ويهدف إلى سير العمل المتخصص والمرخص لمجموعة أصغر من الشركاء المعتمدين الذين لديهم متطلبات تحقق أقوى وضوابط على مستوى الحساب.
تسهل النسخة الخاصة بالأمن السيبراني على الفرق المدققة استخدام أحدث نماذج OpenAI لتحديد الثغرات الأمنية، والتحقق من التحديثات، وتحليل البرمجيات الخبيثة، وهي سير عمل كانت حواجز الحماية المضمنة في GPT-5.5 المتاح عمومًا لتسبب احتكاكًا.
قالت OpenAI: “يسمح GPT-5.5-Cyber لمجموعة أصغر من الشركاء بدراسة سير العمل المتقدمة حيث قد يكون سلوك الوصول المتخصص ذا أهمية.”
يتلقى المدافعون الموافق عليهم لأعلى مستوى في برنامج الوصول الموثوق به للأمن السيبراني من OpenAI نسخة من GPT-5.5 مع حواجز حماية أقل من النموذج العام، مما يتيح البحث عن الثغرات، ودراسة البرمجيات الخبيثة، والهندسة العكسية للهجمات. تظل سرقة بيانات الاعتماد وكتابة البرمجيات الخبيثة محظورة بغض النظر عن مستوى الوصول.
خلال الاختبارات المبكرة، استخدم الشركاء المختارون GPT-5.5-Cyber لأتمتة وتوسيع تمارين "الفرق الحمراء" (red-teaming) على أنظمة البنية التحتية وللتحقق من الثغرات الأمنية عالية الخطورة. تخطط OpenAI لتوثيق النتائج في تحليل تقني معمق مستقبلي كجزء من عملية الإفصاح المسؤول.
نشر المعهد البريطاني لأمن الذكاء الاصطناعي تقييمًا لنموذج GPT-5.5 عبر 95 مهمة سيبرانية ضيقة النطاق. وجد المعهد أن المهام الأساسية قد تم إشباعها بالكامل بواسطة النماذج الرائدة منذ فبراير 2026 على الأقل، على الرغم من أنه حذر من أن اختباره لا يعكس الأداء ضد أهداف واقعية جيدة الدفاع مع مدافعين نشطين وعقوبات التنبيه.
يأتي هذا الطرح بعد شهر من إصدار Anthropic لـ Claude Mythos Preview، وهو نموذج يركز على الأمن السيبراني لفت انتباه المستثمرين وكبار أعضاء إدارة ترامب، حتى بعد أن تم إدراج Anthropic في القائمة السوداء من قبل البنتاغون قبل أسابيع.
أصبح الأمن السيبراني للذكاء الاصطناعي جبهة تنافسية رسمية، حيث تثير كلتا الشركتين تساؤلات حول من يتحكم في أدوات الهجوم والدفاع للذكاء الاصطناعي ومن يتحمل المسؤولية عند إساءة استخدام هذه القدرات.
أشارت OpenAI إلى أنها قدمت أيضًا إمكانية الوصول إلى نموذج سابق، GPT-5.4-Cyber، للمركز الأمريكي لمعايير وابتكار الذكاء الاصطناعي ومعهد الأمن السيبراني البريطاني للذكاء الاصطناعي للتقييم المستقل. يظل GPT-5.5 القياسي هو نقطة الدخول الموصى بها لمعظم المدافعين.