
Wtorkowa dyskusja pomiędzy Dario Amodei, CEO Anthropic, a Jamiem Dimonem, CEO JPMorgan Chase, skupiła się na rosnącym zagrożeniu cyberbezpieczeństwa stwarzanym przez sztuczną inteligencję, która identyfikuje luki szybciej, niż organizacje są w stanie je naprawić.
Podczas prawie dwugodzinnego wydarzenia związanego z wejściem Anthropic na rynek usług finansowych, gdzie zaprezentowano agentów AI do zadań takich jak tworzenie pitchbooków, przegląd wyników finansowych i prace związane z zgodnością, Amodei powiedział, że istnieje od sześciu do dwunastu miesięcy na załatanie dziesiątek tysięcy błędów wykrytych przez model Mythos firmy, zanim podobne możliwości staną się szerzej dostępne.
„Niebezpieczeństwo to po prostu ogromny wzrost liczby luk, liczby naruszeń bezpieczeństwa, szkód finansowych spowodowanych przez oprogramowanie ransomware w szkołach, szpitalach, nie wspominając o bankach” – powiedział Amodei.
Najnowsze oświadczenia Amodei’ego są następstwem wcześniejszych testów z Mozillą, kiedy wczesna wersja Mythosa zidentyfikowała 271 luk w przeglądarce Firefox podczas jednego przebiegu, pokazując, jak sztuczna inteligencja może skanować duże bazy kodu znacznie szybciej niż ludzcy badacze.
Anthropic poinformował, że model jest w stanie odkryć tysiące wcześniej nieznanych słabości w powszechnie używanym oprogramowaniu. Wiele z nich pozostaje nieujawnionych, ponieważ nie zostały jeszcze załatane, pozostawiając nierozwiązane luki.
„Jeśli ogłosimy coś bez wcześniejszej naprawy, źli ludzie to wykorzystają” – powiedział Amodei.
W kontrolowanych testach Mythos przeprowadził wieloetapowe symulacje ataków sieciowych bez interwencji człowieka, demonstrując zdolność do przejścia od identyfikacji słabości do ich wykorzystania.
Anthropic ograniczył dostęp do modelu dla wąskiej grupy partnerów w ramach Projektu Glasswing, dążąc do naprawienia luk, zanim podobne narzędzia staną się powszechnie dostępne.
Badacze wykazali, że elementy możliwości Mythosa mogą być odtworzone przy użyciu istniejących modeli i technik open-source, co sugeruje, że podobne narzędzia mogą rozprzestrzeniać się szybciej niż oczekiwano.
Ostrzeżenia te wywołały sceptycyzm w branży. W kwietniu Sam Altman, CEO OpenAI, powiedział, że obawy dotyczące Mythosa mogą być przeszacowane i zasugerował, że Anthropic stosuje „marketing oparty na strachu”, aby przedstawić ryzyka i uzasadnić ograniczenie dostępu do technologii.
„Można to uzasadnić na wiele różnych sposobów, a niektóre z nich są prawdziwe, jak na przykład uzasadnione obawy o bezpieczeństwo” – powiedział Altman. „Ale jeśli chcesz powiedzieć ‘potrzebujemy kontroli nad sztuczną inteligencją, tylko my, ponieważ jesteśmy godnymi zaufania ludźmi’, to myślę, że marketing oparty na strachu jest prawdopodobnie najskuteczniejszym sposobem, aby to usprawiedliwić."
Nawet pomimo tego oporu i publicznego sporu z Anthropic, rząd USA podobno wykorzystuje Claude Mythos do skanowania tajnych sieci w poszukiwaniu luk i testowania swoich możliwości cyberbezpieczeństwa, jak donosi Axios. Chociaż nie odniósł się do toczącej się bitwy prawnej, Amodei powiedział, że Anthropic jest „dobry dla tego kraju”.
„Uważam, że pogląd Anthropic jest taki sam, jak zawsze. Jeśli chodzi o upolitycznienie, to jest to punkt, o którym mówiłem, a mianowicie bycie usprawnionym, systematycznym i uczciwym wobec wszystkich” – powiedział Amodei. „Celem praw i niedziałania w sposób doraźny jest to, aby wszystkie firmy były, przynajmniej w zasadzie – wiem, że w praktyce jest to bardziej skomplikowane – traktowane w ten sam sposób, i powinniśmy do tego dążyć, nawet jeśli nigdy nie stanie się to idealnie w ten sposób.”
Amodei ujął ten moment jako wąskie okno na działanie, ostrzegając, że szybkość reakcji organizacji może zadecydować o tym, czy ryzyka eskalują, czy zostaną opanowane.
„To jest moment zagrożenia, w którym jeśli zareagujemy prawidłowo, a myślę, że zaczęliśmy stawiać pierwsze kroki, to możemy mieć lepszy świat po drugiej stronie” – powiedział Amodei. „Jest tylko tyle błędów do znalezienia.”