us-government-vet-pre-release-ai-models-google-xai-microsoft
Rząd USA będzie weryfikować modele AI przed ich premierą od Google, xAI i Microsoftu
Google, Microsoft i xAI Elona Muska zgodziły się udostępnić swoje modele rządowi USA, podczas gdy Trump rozważa wydanie rozporządzenia wykonawczego dotyczącego sztucznej inteligencji.
2026-05-05 Źródło:decrypt.co

W skrócie

  • Google, Microsoft i xAI zgodziły się udostępnić rządowi USA wczesny dostęp do modeli granicznych w celu testów bezpieczeństwa narodowego.
  • Prezydent Donald Trump rozważa podobno rozporządzenie wykonawcze dotyczące nadzoru nad AI, według doniesień.
  • Nowy model Claude Mythos firmy Anthropic, który doskonale radzi sobie z wyszukiwaniem luk w zabezpieczeniach cybernetycznych, wzbudził obawy rządu.

Niektórzy z największych graczy w świecie AI zgodzili się udostępnić rządowi USA wczesny dostęp do swoich modeli granicznych w celu przetestowania ich przed publicznym udostępnieniem, a ogłoszenie to nastąpiło dzień po doniesieniu, że administracja prezydenta Donalda Trumpa rozważa rozporządzenie wykonawcze w tej sprawie.

We wtorek, Centrum Standardów i Innowacji AI Departamentu Handlu ogłosiło, że Google, Microsoft i xAI już zgodziły się zapewnić rządowi dostęp do modeli przed ich wydaniem, aby ocenić ich możliwości.

„Niezależna, rygorystyczna nauka o pomiarach jest kluczowa dla zrozumienia granicznej AI i jej implikacji dla bezpieczeństwa narodowego” – powiedział Chris Fall, dyrektor centrum, w oświadczeniu. „Te rozszerzone współprace branżowe pomagają nam skalować naszą pracę w interesie publicznym w krytycznym momencie”.

W poniedziałek, New York Times doniósł, że administracja Trumpa rozważa rozporządzenie wykonawcze mające na celu stworzenie grupy roboczej, która miałaby przeglądać zaawansowane modele AI przed ich publicznym udostępnieniem. Urzędnicy Białego Domu omówili plany nadzoru z dyrektorami z Anthropic, Google i OpenAI na spotkaniach w zeszłym tygodniu, zgodnie z raportem.

Dyskusje na temat rozporządzenia wykonawczego zostały częściowo sprowokowane przez ogłoszenie Anthropic w zeszłym miesiącu, że jego przełomowy model Claude Mythos doskonale radzi sobie z wykrywaniem słabych punktów w zabezpieczeniach cybernetycznych, co wzbudziło obawy urzędników dotyczące implikacji dla bezpieczeństwa narodowego.

Zamiast udostępniać Claude Mythos publicznie i potencjalnie wywołać gorączkową falę zarówno łamania, jak i naprawiania oprogramowania, takiego jak przeglądarki internetowe i systemy operacyjne, Anthropic zamiast tego udostępnił go ograniczonej liczbie startupów i organizacji. Mozilla podała, że udało jej się znaleźć i załatać 271 luk w swojej przeglądarce internetowej Firefox za pomocą Mythos.

Użytkownicy Myriad – platformy rynku predykcyjnego obsługiwanej przez spółkę macierzystą Decrypt, Dastan – nie wierzą, że Anthropic szeroko udostępni Claude Mythos do 30 czerwca, dając na to jedynie 13% szans w chwili pisania tego tekstu.

Niezależnie od tego, administracja starła się z Anthropic w kwestii dostępu do modelu. Administracja Trumpa i Anthropic weszły w spór kontraktowy w lutym po tym, jak Anthropic odrzucił prośbę o nieograniczony dostęp do swoich modeli AI.

Sekretarz obrony Pete Hegseth oświadczył później, że uzna Anthropic za ryzyko dla bezpieczeństwa narodowego w łańcuchu dostaw. Federalny sąd apelacyjny odmówił tymczasowego zawieszenia tej decyzji na czas trwania procesu. W zeszłym tygodniu jednak Axios doniósł, że Biały Dom rozważa czy zmienić kurs i wznowić współpracę z Anthropic.

Potencjalne rozporządzenie wykonawcze stanowi ostrą zmianę w stosunku do wcześniejszego stanowiska Trumpa w sprawie regulacji AI, ponieważ opowiadał się on za minimalnym nadzorem nad branżą.

„Sprawimy, że ta branża będzie absolutnie na szczycie, ponieważ w tej chwili to piękne, narodzone dziecko” – powiedział w lipcu zeszłego roku. „Musimy pozwolić temu dziecku rosnąć i prosperować. Nie możemy tego zatrzymać. Nie możemy tego zatrzymać polityką. Nie możemy tego zatrzymać głupimi zasadami, a nawet durnymi zasadami”.

Po powrocie na urząd w 2025 roku, Trump cofnął wprowadzone za kadencji Bidena wymagania regulacyjne, które nakładały na deweloperów AI obowiązek przeprowadzania ocen bezpieczeństwa i raportowania modeli z potencjalnym zastosowaniem militarnym. W pierwszym dniu urzędowania odwołał rozporządzenie wykonawcze z 2023 roku, podpisane przez byłego prezydenta Joe Bidena, które wymagało od deweloperów systemów AI stwarzających ryzyko dzielenia się wynikami testów bezpieczeństwa z rządem przed publicznym udostępnieniem.

Bardziej niedawno administracja Trumpa zaproponowała narodowe ramy regulacyjne dla AI, które ustanowiłyby krajowe standardy dla tej technologii bez tworzenia nowego regulatora. Federalne naciski pojawiają się w obliczu wysiłków stanowych w zakresie regulacji AI, z których niektóre spotkały się z oporem agencji Trumpa — zwłaszcza ustawa z Kolorado dotycząca „dyskryminacji algorytmicznej”.