openai-child-safety-blueprint-ai-exploitation
OpenAI publikuje plan ochrony dzieci przed wykorzystywaniem wspomaganym przez AI
Nowy plan działania OpenAI określa kroki, które branża może podjąć, aby zwalczać wykorzystywanie seksualne dzieci wspierane przez sztuczną inteligencję.
2026-04-08 Źródło:decrypt.co

W skrócie

  • OpenAI opublikowało swój „Plan bezpieczeństwa dzieci” (Child Safety Blueprint), dotyczący wykorzystywania dzieci w celach seksualnych z użyciem AI.
  • Ramy te koncentrują się na reformach prawnych, silniejszej koordynacji zgłaszania przypadków i zabezpieczeniach wbudowanych w systemy AI.
  • Propozycja została opracowana przy udziale grup zajmujących się bezpieczeństwem dzieci, prokuratorów generalnych i organizacji non-profit.

W celu rozwiązania problemu narastającego wykorzystywania dzieci w celach seksualnych z użyciem AI, OpenAI opublikowało w środę plan polityki, przedstawiający nowe środki bezpieczeństwa, jakie branża może podjąć, aby pomóc ograniczyć wykorzystywanie AI do tworzenia materiałów przedstawiających seksualne wykorzystywanie dzieci.

W ramach tego planu, OpenAI wymienia środki prawne, operacyjne i techniczne mające na celu wzmocnienie ochrony przed nadużyciami z użyciem AI oraz poprawę koordynacji między firmami technologicznymi a śledczymi.

„Seksualne wykorzystywanie dzieci to jedno z najpilniejszych wyzwań ery cyfrowej” – napisała firma. „AI szybko zmienia zarówno sposób, w jaki te szkody pojawiają się w całej branży, jak i sposób, w jaki można im zaradzić na dużą skalę”.

OpenAI stwierdziło, że propozycja uwzględnia opinie organizacji działających na rzecz ochrony dzieci i bezpieczeństwa online, w tym National Center for Missing and Exploited Children (Narodowe Centrum Dzieci Zaginionych i Wykorzystywanych) oraz Attorney General Alliance (Sojusz Prokuratorów Generalnych) i jego grupy zadaniowej ds. AI.

„Generatywna AI przyspiesza przestępczość związaną z seksualnym wykorzystywaniem dzieci online w niezwykle niepokojący sposób – obniżając bariery, zwiększając skalę i umożliwiając nowe formy szkód” – powiedziała Michelle DeLaune, prezes i CEO National Center for Missing & Exploited Children, w oświadczeniu. „Ale jednocześnie National Center for Missing & Exploited Children z zadowoleniem obserwuje, jak firmy takie jak OpenAI zastanawiają się, w jaki sposób narzędzia te mogą być projektowane bardziej odpowiedzialnie, z zabezpieczeniami wbudowanymi od samego początku”.

OpenAI stwierdziło, że ramy łączą standardy prawne, branżowe systemy zgłaszania i techniczne zabezpieczenia w modelach AI. Firma oznajmiła, że środki te mają na celu wcześniejsze identyfikowanie zagrożeń związanych z wykorzystywaniem i poprawę odpowiedzialności na platformach internetowych.

Plan działania wskazuje obszary do podjęcia kroków, w tym aktualizację przepisów w celu zwalczania materiałów przedstawiających seksualne wykorzystywanie dzieci generowanych lub zmienianych przez AI, poprawę sposobu zgłaszania sygnałów nadużyć przez dostawców internetowych i koordynacji z śledczymi, a także wbudowywanie zabezpieczeń w systemy AI zaprojektowane w celu zapobiegania niewłaściwemu wykorzystaniu.

„Żadna pojedyncza interwencja nie jest w stanie samodzielnie sprostać temu wyzwaniu” – napisała firma. „Te ramy łączą podejścia prawne, operacyjne i techniczne, aby lepiej identyfikować ryzyka, przyspieszać reakcje i wspierać odpowiedzialność, jednocześnie zapewniając, że organy ścigania pozostają silne w miarę ewolucji technologii”.

Plan działania pojawia się w czasie, gdy obrońcy praw dzieci wyrazili obawy, że generatywne systemy AI zdolne do tworzenia realistycznych obrazów mogą być wykorzystywane do tworzenia manipulowanych lub syntetycznych przedstawień nieletnich. W lutym UNICEF wezwał rządy państw świata do uchwalenia przepisów kryminalizujących materiały przedstawiające wykorzystywanie dzieci generowane przez AI.

W styczniu Komisja Europejska wszczęła formalne dochodzenie w sprawie tego, czy X, wcześniej znany jako Twitter, naruszył cyfrowe przepisy UE, nie zapobiegając generowaniu nielegalnych treści przez natywny model AI platformy, Grok, podczas gdy organy regulacyjne w Wielkiej Brytanii i Australii również wszczęły dochodzenia.

Zauważając, że same przepisy nie powstrzymają plagi materiałów nadużyć generowanych przez AI, OpenAI stwierdziło, że silniejsze standardy branżowe będą konieczne w miarę wzrostu możliwości systemów AI.

„Poprzez wcześniejsze przerywanie prób wykorzystania, poprawę jakości sygnałów wysyłanych do organów ścigania i wzmocnienie odpowiedzialności w całym ekosystemie, te ramy mają na celu zapobieganie szkodom, zanim one nastąpią, oraz pomaganie w zapewnieniu szybszej ochrony dzieciom, gdy pojawią się zagrożenia” – powiedziało OpenAI.