
Nowe opublikowane dochodzenie dowodzi, że rząd federalny pędzi w sztuczną inteligencję w ten sam sposób, w jaki dziesięć lat temu pędził w przetwarzanie w chmurze, i z tymi samymi strukturalnymi słabościami, które nadal istnieją.
Renee Dudley z ProPublica opublikowała 6 kwietnia dochodzenie, w którym argumentuje, że administracja Trumpa, zachęcając agencje federalne do szybkiego przyjęcia AI od głównych firm technologicznych, powtarza wzorce, które nękały przejście Waszyngtonu na przetwarzanie w chmurze, gdzie szybkość zwyciężyła nad bezpieczeństwem, nadzór został pozbawiony funduszy, a rząd ostatecznie stał się głęboko zależny od kontrahentów, nad którymi miał niewielką kontrolę.
Biały Dom określił AI jako imperatyw konkurencyjności narodowej. Agencje mają teraz dostęp do ChatGPT od OpenAI za 1 dolara, Gemini od Google za 47 centów za użytkownika i Grok od xAI za 42 centy. Ta narracja, pisze Dudley, ściśle odzwierciedla język używany, gdy administracja Obamy ogłosiła przetwarzanie w chmurze priorytetem transformacyjnym na początku 2010 roku.
Lekcja pierwsza: Nie ma czegoś takiego jak darmowy obiad. Dochodzenie ProPublica wykazało, że zobowiązanie Microsoftu z 2021 roku, by zapewnić rządowi federalnemu 150 milionów dolarów w usługach bezpieczeństwa, było w praktyce mechanizmem blokującym. Po przyjęciu darmowych ulepszeń przez agencje, przejście do konkurenta byłoby kosztowne i zakłócające. „To było bardziej udane, niż ktokolwiek z nas mógł sobie wyobrazić”, powiedział ProPublica były sprzedawca Microsoftu. Jak donosi crypto.news, Microsoft i OpenAI od tego czasu pokłóciły się o warunki własnego partnerstwa AI, co jest sygnałem, jak problematyczne mogą być kontrakty AI dużych firm technologicznych nawet między zaangażowanymi stronami.
Lekcja druga: Programy nadzoru wymagają rzeczywistych zasobów. Federalny Program Zarządzania Ryzykiem i Autoryzacją, znany jako FedRAMP, został utworzony w 2011 roku w celu weryfikacji usług przetwarzania w chmurze, zanim agencje federalne mogły z nich korzystać. ProPublica odkryła, że agencja przez pięć lat wywierała presję na FedRAMP, aby uzyskać zgodę na duży produkt chmurowy, pomimo poważnych zastrzeżeń dotyczących cyberbezpieczeństwa. To było przed DOGE. FedRAMP twierdzi teraz, że działa „z absolutnym minimum personelu pomocniczego” i „ograniczoną obsługą klienta”. Rzecznik GSA bronił programu, mówiąc, że „działa on z wzmocnionymi mechanizmami nadzoru i odpowiedzialności”, ale byli pracownicy powiedzieli ProPublica, że program działa jak gumowa pieczęć.
Lekcja trzecia: Niezależne recenzje są tylko w pewnym stopniu niezależne. W miarę kurczenia się wewnętrznych zdolności FedRAMP, firmy audytorskie zewnętrzne przejęły większą część funkcji weryfikacji. Firmy te są opłacane przez te same firmy chmurowe, które oceniają. Agencje, często niedofinansowane, nie mają możliwości przeprowadzania własnych dokładnych przeglądów i w dużej mierze polegają na tych ocenach. Jak zauważył crypto.news, szersze zaniepokojenie wśród obserwatorów polega na tym, że rządy są konsekwentnie wolniejsze w zarządzaniu transformacyjną technologią niż firmy, które ją wdrażają.
GSA przyznała, że „koszty użytkowania AI mogą szybko rosnąć bez odpowiedniego monitoringu i kontroli zarządzania” i doradziła agencjom ustalenie limitów użytkowania oraz przeglądanie raportów zużycia. Jednak podstawowe problemy strukturalne pozostają: niedofinansowane organy nadzorcze, recenzje zależne od dostawców oraz agencje z niewielką siłą przetargową, gdy już wdrożenie się utrwali.
Wniosek Dudley jest trafny: „Konsekwencje tego ograniczenia dla federalnego cyberbezpieczeństwa są dalekosiężne”, ponieważ agencje przyjmują narzędzia AI, które przetwarzają wrażliwe dane rządowe, w ramach tych samych osłabionych ram nadzoru, które miały trudności z zarządzaniem chmurą.