
OpenAI-CEO Sam Altman hat die wachsende Besorgnis über das leistungsstarke neue KI-Modell Claude Mythos des Konkurrenten Anthropic zurückgewiesen und angedeutet, dass das Unternehmen „Angst“ zur Vermarktung des Produkts einsetzt.
In einem Gespräch im „Core Memory“-Podcast, moderiert vom Tech-Journalisten Ashlee Vance, argumentierte Altman, dass der Einsatz von „Angstmarketing“ darauf abzielte, KI in den Händen einer „kleineren Personengruppe“ zu halten.
„Man kann das auf viele verschiedene Weisen rechtfertigen, und einiges davon ist real, zum Beispiel wird es berechtigte Sicherheitsbedenken geben“, sagte Altman.
„Aber wenn man will, dass 'wir die Kontrolle über KI brauchen, nur wir, weil wir die Vertrauenswürdigen sind', dann ist Angstmarketing wahrscheinlich der effektivste Weg, dies zu rechtfertigen.“
Altman fügte hinzu, dass es zwar berechtigte Bedenken hinsichtlich der KI-Sicherheit gebe, es aber „eindeutig ein unglaubliches Marketing ist zu sagen: 'Wir haben eine Bombe gebaut. Wir werden sie euch auf den Kopf werfen. Wir verkaufen euch einen Bombenschutz für 100 Millionen Dollar. Ihr braucht ihn für all eure Sachen, aber nur, wenn wir euch als Kunden auswählen.'“
Er merkte an, dass es „nicht immer einfach“ sei, die neuen Fähigkeiten der KI mit OpenAIs Überzeugung in Einklang zu bringen, dass die Technologie zugänglich sein sollte.
Anthroptics Claude Mythos-Modell, das letzten Monat vorgestellt wurde, hat intensive Aufmerksamkeit von Forschern, Regierungen und der Cybersicherheitsbranche auf sich gezogen, insbesondere nachdem Tests nahelegten, dass es autonom Software-Schwachstellen identifizieren und komplexe Cyber-Operationen ausführen kann. Das Modell wird nur über ein eingeschränktes Programm an eine begrenzte Anzahl von Organisationen verteilt.
Die Einführung spiegelt eine breitere Spaltung in der KI-Branche wider, wie leistungsstarke Systeme eingesetzt werden sollten: Einige Unternehmen betonen kontrollierten Zugang, während andere eine breitere Verbreitung fordern, um Innovation und das Verständnis der Technologie zu beschleunigen.
Mythos ist in dieser Debatte zu einem zentralen Punkt geworden. Die Fähigkeiten des Modells wurden von Anthropic sowohl als defensiver Durchbruch – der eine schnellere Erkennung kritischer Software-Fehler ermöglicht – als auch als potenzielles offensives Risiko bei Missbrauch dargestellt. Anfang dieses Monats identifizierte es bei Tests Hunderte von Schwachstellen im Firefox-Browser von Mozilla und hat auch die Fähigkeit demonstriert, mehrstufige Cyberangriffssimulationen durchzuführen.
Anthropic hat den Zugang zum System über Project Glasswing eingeschränkt und ausgewählten Unternehmen wie Amazon, Apple und Microsoft die Möglichkeit gegeben, seine Fähigkeiten zu testen. Das Unternehmen hat auch erhebliche Ressourcen zur Unterstützung von Open-Source-Sicherheitsbemühungen bereitgestellt und argumentiert, dass Verteidiger von der Technologie profitieren sollten, bevor sie breiter verfügbar wird.
Das Modell hat auch Grenzen bestehender KI-Evaluierungssysteme aufgezeigt, wobei Anthropic anerkennt, dass viele aktuelle Cybersicherheits-Benchmarks nicht mehr ausreichen, um die Fähigkeiten seines neuesten Systems zu messen.
Dennoch behauptete eine Gruppe von Forschern letzte Woche, sie könnten die Ergebnisse von Mythos mithilfe öffentlich zugänglicher Modelle reproduzieren.
Trotz Forderungen innerhalb Teilen der US-Regierung, die Nutzung der Technologie aufgrund von Bedenken hinsichtlich ihrer potenziellen Anwendungen in Kriegsführung und Überwachung einzustellen, hat die National Security Agency Berichten zufolge damit begonnen, eine Vorabversion des Modells in klassifizierten Netzwerken zu testen. Auf dem Prognosemarkt Myriad, der der Muttergesellschaft von Decrypt, Dastan, gehört, schätzten die Nutzer die Wahrscheinlichkeit, dass Claude Mythos bis zum 30. Juni der breiten Öffentlichkeit zugänglich gemacht wird, auf 49 % ein.
Altman deutete an, dass die Rhetorik um hochgefährliche KI-Systeme zunehmen könnte, wenn sich die Fähigkeiten verbessern, argumentierte aber, dass nicht alle dieser Behauptungen für bare Münze genommen werden sollten.
„Es wird viel mehr Rhetorik über Modelle geben, die zu gefährlich sind, um veröffentlicht zu werden. Es wird auch sehr gefährliche Modelle geben, die auf unterschiedliche Weise veröffentlicht werden müssen“, sagte er. „Ich bin sicher, Mythos ist ein großartiges Modell für Cybersicherheit, aber ich denke, wir haben einen Plan, mit dem wir uns gut fühlen, wie wir diese Art von Fähigkeit in die Welt bringen.“
Altman wies auch Andeutungen zurück, dass OpenAI seine Infrastrukturausgaben zurückfährt, und sagte, das Unternehmen werde seine Rechenkapazität trotz sich ändernder Erzählungen weiter ausbauen.
„Ich weiß nicht, woher das kommt… die Leute wollen unbedingt die Geschichte vom Rückzug schreiben“, sagte er. „Aber sehr bald wird es wieder heißen: ‚OpenAI ist so rücksichtslos. Wie können sie diesen wahnsinnigen Betrag ausgeben?‘“