google-chrome-secretly-installs-4gb-ai-model
Dlaczego Google Chrome zainstalował tajny model AI
Badacz Alexander Hanff udokumentował, że Chrome potajemnie pobiera model AI o nazwie Gemini Nano o rozmiarze 4 GB na kwalifikujące się urządzenia bez powiadomienia użytkownika ani jego zgody. Model automatycznie reinstaluje się, jeśli użytkownicy go usuną, a Chrome nie oferuje możliwości rezygnacji podczas instalacji. Hanff twierdzi, że praktyka ta prawdopodobnie narusza unijną dyrektywę ePrivacy oraz RODO, co rodzi pytania prawne, które nie zostały jeszcze rozstrzygnięte przez sąd.
2026-05-08 Źródło:crypto.news

Google Chrome potajemnie instaluje model AI o nazwie Gemini Nano o rozmiarze 4 GB na urządzeniach użytkowników bez ich zgody, odkrył badacz.

Podsumowanie
  • Badacz Alexander Hanff udokumentował, jak Chrome potajemnie pobiera 4 GB model AI o nazwie Gemini Nano na kwalifikujące się urządzenia, bez powiadomienia ani zgody użytkownika.
  • Model automatycznie instaluje się ponownie, jeśli użytkownicy go usuną, a Chrome nie oferuje monitu o rezygnację podczas instalacji.
  • Hanff twierdzi, że praktyka ta prawdopodobnie narusza dyrektywę e-prywatności UE oraz wymogi RODO, podnosząc kwestie prawne, które nie zostały jeszcze przetestowane w sądzie.

Google Chrome potajemnie instaluje model AI o rozmiarze 4 GB na urządzeniach użytkowników bez ich zgody, odkrył badacz. Badacz ds. prywatności i informatyk Alexander Hanff udokumentował tę instalację po odkryciu, że profil Chrome, który stworzył do automatycznych audytów prywatności, zgromadził 4 GB plików modelu o nazwie weights.bin w folderze OptGuideOnDeviceModel, pomimo braku jakiejkolwiek interakcji ze strony człowieka.

Model ten to Google Gemini Nano, lekki, lokalny duży model językowy. Łańcuch dowodów Hanffa pokazuje, że Chrome pobrał plik o rozmiarze 4 GB w ciągu 14 minut i 28 sekund 24 kwietnia 2026 roku, bez monitu o zgodę, bez powiadomienia w ustawieniach i bez pola wyboru.

Plik instaluje się ponownie automatycznie po ponownym uruchomieniu po usunięciu, zgodnie z wieloma niezależnymi raportami z systemów Windows, macOS i Linux.

Co Chrome robi z tym modelem

Chrome 147 wyświetla ikonkę „Tryb AI” na pasku adresu, co użytkownicy mogliby słusznie zakładać, że kieruje zapytania do lokalnego modelu na urządzeniu. Według dochodzenia Hanffa, to założenie jest błędne.

Ikonka „Tryb AI” to oparte na chmurze generatywne doświadczenie wyszukiwania, które wysyła każde zapytanie do serwerów Google. Lokalny Gemini Nano zasila funkcje menu kontekstowego (prawego przycisku myszy), do których większość użytkowników nigdy nie ma dostępu.

Snopes zweryfikował to twierdzenie jako w większości prawdziwe, znajdując plik weights.bin na urządzeniach trzech z sześciu sprawdzonych pracowników, zarówno na komputerach macOS, jak i Windows. Google poinformowało Snopes, że rozpoczęło wprowadzanie opcji rezygnacji w ustawieniach Chrome w lutym 2026 roku, choć to ustawienie nie było dostępne dla wszystkich użytkowników.

Jak donosi crypto.news, nieproszone gromadzenie danych i ciche zachowanie oprogramowania ze strony głównych platform technologicznych stały się w 2026 roku rosnącym problemem, a CZ i inni ostrzegają, że braki w przejrzystości w systemach cyfrowych podważają zaufanie użytkowników na dużą skalę.

Ryzyka prawne i środowiskowe

Hanff twierdzi, że praktyka ta prawdopodobnie narusza dyrektywę e-prywatności UE, która reguluje przechowywanie danych na urządzeniach użytkowników, oraz wymogi przejrzystości RODO.

Te roszczenia nie zostały jeszcze przetestowane w sądzie. Obliczył również, że przy skali około miliarda urządzeń Chrome’a, dystrybucja pliku o rozmiarze 4 GB generuje od 6 000 do 60 000 ton emisji równoważnych CO2.

Blog bezpieczeństwa Malwarebytes odnotował, że podobny wzorzec pojawił się kilka tygodni wcześniej, gdy Hanff udokumentował, jak Anthropic Claude Desktop po cichu instalował pliki integracji z przeglądarką w wielu przeglądarkach opartych na Chromium bez znaczącego ujawnienia użytkownikowi, również argumentując, że te instalacje prawdopodobnie naruszały prawo UE.

Jak śledziło crypto.news, zagrożenia bezpieczeństwa i prywatności napędzane przez AI przyspieszają w 2026 roku, a CertiK ostrzega, że narzędzia AI sprawiają, że ataki są szybsze i trudniejsze do wykrycia w całym ekosystemie cyfrowym.