openai-targets-cyber-defenders-with-gpt-5-5
GPT-5.5-Cyber d'OpenAI équipe les défenseurs cybernétiques
GPT-5.5-Cyber d'OpenAI est le modèle le plus permissif de sa gamme, disponible en avant-première limitée pour des partenaires approuvés effectuant des travaux avancés de sécurité. Les équipes vérifiées peuvent l'utiliser pour la chasse aux bugs, l'analyse de malwares et la rétro-ingénierie, mais l'écriture de malwares et le vol d'identifiants restent bloqués. Ce lancement fait suite au déploiement, un mois plus tôt, de la version d'essai Claude Mythos d'Anthropic, qui a attiré l'attention des investisseurs et des gouvernements.
2026-05-08 Source:crypto.news

OpenAI a lancé GPT-5.5-Cyber pour les défenseurs cybernétiques agréés, leur offrant des garde-fous réduits pour les flux de travail de sécurité spécialisés.

Résumé
  • GPT-5.5-Cyber d'OpenAI est le modèle le plus permissif de sa gamme, disponible en préversion limitée pour les partenaires approuvés effectuant des travaux de sécurité avancés.
  • Les équipes vérifiées peuvent l'utiliser pour la chasse aux bugs, l'analyse de logiciels malveillants et l'ingénierie inverse, mais la création de logiciels malveillants et le vol d'identifiants restent bloqués.
  • Ce lancement fait suite au déploiement de Claude Mythos Preview par son rival Anthropic un mois plus tôt, qui a attiré l'attention des investisseurs et du gouvernement.

OpenAI a lancé GPT-5.5-Cyber le 7 mai en préversion limitée, ciblant les professionnels de la sécurité défendant les infrastructures critiques. La société le décrit comme le modèle le plus permissif de sa gamme de cybersécurité, destiné aux flux de travail autorisés spécialisés pour un groupe plus restreint de partenaires approuvés avec des exigences de vérification plus strictes et des contrôles au niveau du compte.

La version cyber-spécifique facilite l'utilisation du dernier modèle d'OpenAI par les équipes vérifiées pour l'identification des vulnérabilités, la validation des correctifs et l'analyse des logiciels malveillants, des flux de travail où les garde-fous intégrés au GPT-5.5 généralement disponible auraient créé des frictions.

OpenAI a déclaré : « GPT-5.5-Cyber permet à un ensemble plus restreint de partenaires d'étudier des flux de travail avancés où un comportement d'accès spécialisé peut être important. »

Ce que les défenseurs peuvent et ne peuvent pas faire

Les défenseurs approuvés pour le niveau le plus élevé du programme Trusted Access for Cyber d'OpenAI reçoivent une version de GPT-5.5 avec moins de garde-fous que le modèle public, permettant la chasse aux bugs, l'étude des logiciels malveillants et l'ingénierie inverse des attaques. Le vol d'identifiants et la création de logiciels malveillants restent bloqués, quel que soit le niveau d'accès.

Lors des premiers tests, les partenaires sélectionnés ont utilisé GPT-5.5-Cyber pour automatiser et étendre les exercices de red-teaming sur les systèmes d'infrastructure et pour valider les vulnérabilités de haute gravité. OpenAI prévoit de documenter les résultats dans une future analyse technique approfondie dans le cadre d'un processus de divulgation responsable.

Le UK AI Security Institute a publié une évaluation de GPT-5.5 sur 95 tâches cybernétiques spécifiques. L'institut a constaté que les tâches de base sont pleinement maîtrisées par les principaux modèles depuis au moins février 2026, bien qu'il ait averti que ses tests ne reflètent pas les performances contre des cibles réelles bien défendues avec des défenseurs actifs et des pénalités d'alerte.

Pression concurrentielle

Ce déploiement intervient un mois après qu'Anthropic a lancé Claude Mythos Preview, un modèle axé sur la cybersécurité qui a attiré l'attention des investisseurs et de hauts responsables de l'administration Trump, même après qu'Anthropic ait été mis sur liste noire par le Pentagone des semaines auparavant.

La cybersécurité basée sur l'IA est devenue un front concurrentiel officiel, les deux entreprises soulevant des questions sur qui contrôle les outils d'attaque et de défense basés sur l'IA et qui porte la responsabilité lorsque ces capacités sont utilisées à mauvais escient.

OpenAI a noté avoir également fourni l'accès à un modèle antérieur, GPT-5.4-Cyber, au US Center for AI Standards and Innovation et au UK AI Security Institute pour une évaluation indépendante. Le GPT-5.5 standard reste son point d'entrée recommandé pour la plupart des défenseurs.