anthropic-using-fear-based-marketing-to-promote-claude-mythos-sam-altman
Anthropic utilise le « marketing basé sur la peur » pour promouvoir Claude Mythos : Sam Altman
Le directeur d'OpenAI a déclaré que les avertissements concernant le modèle d'IA du rival Anthropic pourraient être exagérés, alors que ses capacités en cybersécurité font l'objet d'un examen approfondi.
2026-04-23 Source:decrypt.co

En bref

  • Sam Altman, PDG d'OpenAI, a suggéré que sa société rivale Anthropic utilisait un "marketing basé sur la peur" pour promouvoir son modèle Claude Mythos.
  • Claude Mythos a montré une capacité sans précédent à trouver des vulnérabilités logicielles.
  • Les gouvernements et les chercheurs ont averti des risques défensifs et offensifs liés à Mythos.

Sam Altman, PDG d'OpenAI, a réfuté l'alarme croissante autour du puissant nouveau modèle d'IA Claude Mythos de son rival Anthropic, suggérant que l'entreprise utilisait la "peur" pour commercialiser le produit.

S'exprimant lors du podcast Core Memory, animé par le journaliste tech Ashlee Vance, Altman a soutenu que l'utilisation d'un "marketing basé sur la peur" visait à maintenir l'IA entre les mains d'un "groupe plus restreint de personnes".

"Vous pouvez justifier cela de nombreuses façons, et une partie est réelle, comme il va y avoir des préoccupations légitimes en matière de sécurité", a déclaré Altman.

"Mais si ce que vous voulez, c'est 'nous avons besoin de contrôler l'IA, juste nous, parce que nous sommes les personnes dignes de confiance', je pense que le marketing basé sur la peur est probablement le moyen le plus efficace de justifier cela."

Altman a ajouté que bien qu'il y ait des préoccupations valides concernant la sécurité de l'IA, "c'est clairement un marketing incroyable de dire : 'Nous avons construit une bombe. Nous sommes sur le point de la lâcher sur votre tête. Nous vous vendrons un abri anti-bombe pour 100 millions de dollars. Vous en avez besoin pour protéger toutes vos affaires, mais seulement si nous vous choisissons comme client.'"

Il a noté qu'il n'était "pas toujours facile" d'équilibrer les nouvelles capacités de l'IA avec la conviction d'OpenAI que la technologie devrait être accessible.

Claude Mythos d'Anthropic

Le modèle Claude Mythos d'Anthropic, révélé le mois dernier, a attiré une attention intense de la part des chercheurs, des gouvernements et de l'industrie de la cybersécurité, en particulier après que des tests ont suggéré qu'il peut identifier de manière autonome les vulnérabilités logicielles et exécuter des cyberopérations complexes. Le modèle est distribué uniquement à un ensemble limité d'organisations via un programme restreint.

Le déploiement reflète une division plus large au sein de l'industrie de l'IA sur la manière dont les systèmes puissants devraient être déployés, certaines entreprises mettant l'accent sur un accès contrôlé et d'autres plaidant pour une distribution plus large afin d'accélérer l'innovation et la compréhension de la technologie.

Mythos est devenu un point central de ce débat. Les capacités du modèle ont été présentées par Anthropic à la fois comme une avancée défensive – permettant une détection plus rapide des failles logicielles critiques – et un risque offensif potentiel en cas de mauvaise utilisation. Au début du mois, il a identifié des centaines de vulnérabilités dans le navigateur Firefox de Mozilla lors de tests et a également démontré sa capacité à mener des simulations de cyberattaques multi-étapes.

Anthropic a restreint l'accès au système via Project Glasswing, accordant à certaines entreprises, dont Amazon, Apple et Microsoft, la possibilité de tester ses capacités. L'entreprise a également consacré des ressources importantes au soutien des efforts de sécurité open source, arguant que les défenseurs devraient bénéficier de la technologie avant qu'elle ne soit plus largement disponible.


Les experts en sécurité avertissent que les mêmes capacités qui permettent à Mythos d'identifier les vulnérabilités pourraient également être utilisées pour les exploiter à grande échelle. Des tests effectués par l'AI Security Institute du Royaume-Uni ont révélé que le modèle pouvait réaliser de manière autonome des cyberopérations complexes.

Le modèle a également exposé les limites des systèmes d'évaluation d'IA existants, Anthropic reconnaissant que de nombreux benchmarks de cybersécurité actuels ne sont plus suffisants pour mesurer les capacités de son dernier système.

Cela dit, un groupe de chercheurs a affirmé la semaine dernière avoir pu reproduire les découvertes de Mythos en utilisant des modèles disponibles publiquement.

Malgré les appels au sein de certaines parties du gouvernement américain à interrompre l'utilisation de cette technologie en raison de préoccupations concernant ses applications potentielles en matière de guerre et de surveillance, la National Security Agency aurait commencé à tester une version préliminaire du modèle sur des réseaux classifiés. Sur le marché de prédiction Myriad, propriété de la société mère de Decrypt, Dastan, les utilisateurs attribuent une probabilité de 49 % à la sortie de Claude Mythos au grand public d'ici le 30 juin.

Altman a suggéré que la rhétorique concernant les systèmes d'IA très dangereux pourrait s'intensifier à mesure que les capacités s'améliorent, mais a soutenu que toutes ces affirmations ne devraient pas être prises au pied de la lettre.

"Il y aura beaucoup plus de rhétorique sur les modèles trop dangereux pour être publiés. Il y aura aussi des modèles très dangereux qui devront être publiés de différentes manières", a-t-il déclaré. "Je suis sûr que Mythos est un excellent modèle pour la cybersécurité, mais je pense que nous avons un plan qui nous satisfait pour la manière dont nous allons diffuser ce type de capacité dans le monde."

Altman a également rejeté les suggestions selon lesquelles OpenAI réduisait ses dépenses d'infrastructure, affirmant que l'entreprise continuerait à étendre sa capacité de calcul malgré les changements de discours.

"Je ne sais pas d'où cela vient... les gens veulent vraiment écrire l'histoire d'un retrait", a-t-il dit. "Mais très bientôt, ce sera à nouveau : 'OpenAI est si imprudent. Comment peuvent-ils dépenser une somme aussi folle ?'"