anthropic-using-fear-based-marketing-to-promote-claude-mythos-sam-altman
Anthropic stosuje „marketing oparty na strachu” do promowania Claude Mythos: Sam Altman
Szef OpenAI stwierdził, że ostrzeżenia dotyczące modelu AI konkurencyjnej firmy Anthropic mogą być przesadzone, ponieważ jej możliwości w zakresie cyberbezpieczeństwa są poddawane kontroli.
2026-04-23 Źródło:decrypt.co

W skrócie

  • Dyrektor generalny OpenAI, Sam Altman, zasugerował, że konkurencyjna firma Anthropic stosuje "marketing oparty na strachu" do promowania swojego modelu Claude Mythos.
  • Claude Mythos wykazał się niespotykaną zdolnością do znajdowania luk w oprogramowaniu.
  • Rządy i naukowcy ostrzegli przed ryzykiem zarówno obronnym, jak i ofensywnym związanym z Mythos.

Dyrektor generalny OpenAI, Sam Altman, skrytykował rosnący niepokój wokół potężnego nowego modelu AI Claude Mythos konkurencyjnej firmy Anthropic, sugerując, że firma wykorzystuje "strach" do marketingowania produktu.

W rozmowie w podcaście Core Memory, prowadzonym przez dziennikarkę technologiczną Ashlee Vance, Altman argumentował, że stosowanie "marketingu opartego na strachu" miało na celu utrzymanie AI w rękach "mniejszej grupy ludzi".

„Można to uzasadnić na wiele różnych sposobów, a część z tego jest prawdziwa, na przykład będą istniały uzasadnione obawy dotyczące bezpieczeństwa” – powiedział Altman.

„Ale jeśli chcecie powiedzieć, że 'potrzebujemy kontroli nad AI, tylko my, bo jesteśmy godnymi zaufania ludźmi', to myślę, że marketing oparty na strachu jest prawdopodobnie najskuteczniejszym sposobem, aby to uzasadnić”.

Altman dodał, że choć istnieją uzasadnione obawy dotyczące bezpieczeństwa AI, "to jest ewidentnie niesamowity marketing, by powiedzieć: 'Zbudowaliśmy bombę. Zaraz zrzucimy ją na wasze głowy. Sprzedamy wam schron za 100 milionów dolarów. Potrzebujecie go, by chronić wszystkie swoje rzeczy, ale tylko jeśli wybierzemy was jako klienta'".

Zauważył, że "nie zawsze było łatwo" zrównoważyć nowe możliwości AI z przekonaniem OpenAI, że technologia powinna być dostępna.

Claude Mythos firmy Anthropic

Model Anthropic Claude Mythos, ujawniony w zeszłym miesiącu, przyciągnął intensywną uwagę badaczy, rządów i branży cyberbezpieczeństwa, zwłaszcza po tym, jak testy sugerowały, że może autonomicznie identyfikować luki w oprogramowaniu i wykonywać złożone operacje cybernetyczne. Model jest dystrybuowany tylko do ograniczonej liczby organizacji w ramach programu o ograniczonym dostępie.

Wprowadzenie modelu odzwierciedla szerszy podział w branży AI na temat tego, jak potężne systemy powinny być wdrażane, przy czym niektóre firmy podkreślają kontrolowany dostęp, a inne opowiadają się za szerszą dystrybucją w celu przyspieszenia innowacji i zrozumienia technologii.

Mythos stał się centralnym punktem tej debaty. Możliwości modelu zostały przedstawione przez Anthropic zarówno jako przełom w obronie – umożliwiający szybsze wykrywanie krytycznych wad oprogramowania – jak i potencjalne ryzyko ofensywne w przypadku niewłaściwego użycia. Na początku tego miesiąca, podczas testów, zidentyfikował setki luk w przeglądarce Mozilla Firefox, a także zademonstrował zdolność do przeprowadzania wieloetapowych symulacji cyberataków.

Anthropic ograniczył dostęp do systemu za pośrednictwem Projektu Glasswing, umożliwiając wybranym firmom, w tym Amazonowi, Apple i Microsoftowi, testowanie jego możliwości. Firma przeznaczyła również znaczne środki na wspieranie działań na rzecz bezpieczeństwa open-source, argumentując, że obrońcy powinni skorzystać z tej technologii, zanim stanie się ona szerzej dostępna.


Eksperci ds. bezpieczeństwa ostrzegają, że te same możliwości, które pozwalają Mythosowi identyfikować luki, mogłyby zostać wykorzystane do ich masowego wykorzystywania. Testy przeprowadzone przez brytyjski AI Security Institute wykazały, że model może autonomicznie wykonywać złożone operacje cybernetyczne.

Model ujawnił również ograniczenia w istniejących systemach oceny AI, a Anthropic przyznał, że wiele obecnych benchmarków cyberbezpieczeństwa nie jest już wystarczających do pomiaru możliwości jego najnowszego systemu.

Niemniej jednak, grupa badaczy twierdziła w zeszłym tygodniu, że byli w stanie odtworzyć odkrycia Mythos przy użyciu publicznie dostępnych modeli.

Pomimo apeli w niektórych częściach rządu USA o wstrzymanie stosowania tej technologii z powodu obaw o jej potencjalne zastosowania w wojnie i nadzorze, Agencja Bezpieczeństwa Narodowego podobno rozpoczęła testowanie wersji podglądowej modelu w sieciach niejawnych. Na rynku prognoz Myriad, należącym do spółki macierzystej Decrypt, Dastan, użytkownicy ocenili na 49% szansę, że Claude Mythos zostanie udostępniony szerszej publiczności do 30 czerwca.

Altman zasugerował, że retoryka wokół wysoce niebezpiecznych systemów AI może wzrosnąć wraz z poprawą ich możliwości, ale argumentował, że nie wszystkie takie twierdzenia powinny być traktowane dosłownie.

„Będzie znacznie więcej retoryki na temat modeli, które są zbyt niebezpieczne, by je udostępnić. Będą też bardzo niebezpieczne modele, które będą musiały być udostępniane w inny sposób” – powiedział. „Jestem pewien, że Mythos to świetny model do cyberbezpieczeństwa, ale myślę, że mamy plan, z którego jesteśmy zadowoleni, jeśli chodzi o to, jak udostępniamy tego rodzaju możliwości światu”.

Altman odrzucił również sugestie, że OpenAI ogranicza wydatki na infrastrukturę, mówiąc, że firma będzie kontynuować rozbudowę swojej mocy obliczeniowej pomimo zmieniających się narracji.

„Nie wiem, skąd to się bierze… ludzie naprawdę chcą napisać historię o wycofywaniu się” – powiedział. „Ale bardzo szybko znowu będzie tak: 'OpenAI jest takie lekkomyślne. Jak oni mogą wydawać tak szaloną kwotę?'”