
Sam Altman, PDG d'OpenAI, a réfuté l'alarme croissante autour du puissant nouveau modèle d'IA Claude Mythos de son rival Anthropic, suggérant que l'entreprise utilisait la "peur" pour commercialiser le produit.
S'exprimant lors du podcast Core Memory, animé par le journaliste tech Ashlee Vance, Altman a soutenu que l'utilisation d'un "marketing basé sur la peur" visait à maintenir l'IA entre les mains d'un "groupe plus restreint de personnes".
"Vous pouvez justifier cela de nombreuses façons, et une partie est réelle, comme il va y avoir des préoccupations légitimes en matière de sécurité", a déclaré Altman.
"Mais si ce que vous voulez, c'est 'nous avons besoin de contrôler l'IA, juste nous, parce que nous sommes les personnes dignes de confiance', je pense que le marketing basé sur la peur est probablement le moyen le plus efficace de justifier cela."
Altman a ajouté que bien qu'il y ait des préoccupations valides concernant la sécurité de l'IA, "c'est clairement un marketing incroyable de dire : 'Nous avons construit une bombe. Nous sommes sur le point de la lâcher sur votre tête. Nous vous vendrons un abri anti-bombe pour 100 millions de dollars. Vous en avez besoin pour protéger toutes vos affaires, mais seulement si nous vous choisissons comme client.'"
Il a noté qu'il n'était "pas toujours facile" d'équilibrer les nouvelles capacités de l'IA avec la conviction d'OpenAI que la technologie devrait être accessible.
Le modèle Claude Mythos d'Anthropic, révélé le mois dernier, a attiré une attention intense de la part des chercheurs, des gouvernements et de l'industrie de la cybersécurité, en particulier après que des tests ont suggéré qu'il peut identifier de manière autonome les vulnérabilités logicielles et exécuter des cyberopérations complexes. Le modèle est distribué uniquement à un ensemble limité d'organisations via un programme restreint.
Le déploiement reflète une division plus large au sein de l'industrie de l'IA sur la manière dont les systèmes puissants devraient être déployés, certaines entreprises mettant l'accent sur un accès contrôlé et d'autres plaidant pour une distribution plus large afin d'accélérer l'innovation et la compréhension de la technologie.
Mythos est devenu un point central de ce débat. Les capacités du modèle ont été présentées par Anthropic à la fois comme une avancée défensive – permettant une détection plus rapide des failles logicielles critiques – et un risque offensif potentiel en cas de mauvaise utilisation. Au début du mois, il a identifié des centaines de vulnérabilités dans le navigateur Firefox de Mozilla lors de tests et a également démontré sa capacité à mener des simulations de cyberattaques multi-étapes.
Anthropic a restreint l'accès au système via Project Glasswing, accordant à certaines entreprises, dont Amazon, Apple et Microsoft, la possibilité de tester ses capacités. L'entreprise a également consacré des ressources importantes au soutien des efforts de sécurité open source, arguant que les défenseurs devraient bénéficier de la technologie avant qu'elle ne soit plus largement disponible.
Le modèle a également exposé les limites des systèmes d'évaluation d'IA existants, Anthropic reconnaissant que de nombreux benchmarks de cybersécurité actuels ne sont plus suffisants pour mesurer les capacités de son dernier système.
Cela dit, un groupe de chercheurs a affirmé la semaine dernière avoir pu reproduire les découvertes de Mythos en utilisant des modèles disponibles publiquement.
Malgré les appels au sein de certaines parties du gouvernement américain à interrompre l'utilisation de cette technologie en raison de préoccupations concernant ses applications potentielles en matière de guerre et de surveillance, la National Security Agency aurait commencé à tester une version préliminaire du modèle sur des réseaux classifiés. Sur le marché de prédiction Myriad, propriété de la société mère de Decrypt, Dastan, les utilisateurs attribuent une probabilité de 49 % à la sortie de Claude Mythos au grand public d'ici le 30 juin.
Altman a suggéré que la rhétorique concernant les systèmes d'IA très dangereux pourrait s'intensifier à mesure que les capacités s'améliorent, mais a soutenu que toutes ces affirmations ne devraient pas être prises au pied de la lettre.
"Il y aura beaucoup plus de rhétorique sur les modèles trop dangereux pour être publiés. Il y aura aussi des modèles très dangereux qui devront être publiés de différentes manières", a-t-il déclaré. "Je suis sûr que Mythos est un excellent modèle pour la cybersécurité, mais je pense que nous avons un plan qui nous satisfait pour la manière dont nous allons diffuser ce type de capacité dans le monde."
Altman a également rejeté les suggestions selon lesquelles OpenAI réduisait ses dépenses d'infrastructure, affirmant que l'entreprise continuerait à étendre sa capacité de calcul malgré les changements de discours.
"Je ne sais pas d'où cela vient... les gens veulent vraiment écrire l'histoire d'un retrait", a-t-il dit. "Mais très bientôt, ce sera à nouveau : 'OpenAI est si imprudent. Comment peuvent-ils dépenser une somme aussi folle ?'"