
W celu rozwiązania problemu narastającego wykorzystywania dzieci w celach seksualnych z użyciem AI, OpenAI opublikowało w środę plan polityki, przedstawiający nowe środki bezpieczeństwa, jakie branża może podjąć, aby pomóc ograniczyć wykorzystywanie AI do tworzenia materiałów przedstawiających seksualne wykorzystywanie dzieci.
W ramach tego planu, OpenAI wymienia środki prawne, operacyjne i techniczne mające na celu wzmocnienie ochrony przed nadużyciami z użyciem AI oraz poprawę koordynacji między firmami technologicznymi a śledczymi.
„Seksualne wykorzystywanie dzieci to jedno z najpilniejszych wyzwań ery cyfrowej” – napisała firma. „AI szybko zmienia zarówno sposób, w jaki te szkody pojawiają się w całej branży, jak i sposób, w jaki można im zaradzić na dużą skalę”.
OpenAI stwierdziło, że propozycja uwzględnia opinie organizacji działających na rzecz ochrony dzieci i bezpieczeństwa online, w tym National Center for Missing and Exploited Children (Narodowe Centrum Dzieci Zaginionych i Wykorzystywanych) oraz Attorney General Alliance (Sojusz Prokuratorów Generalnych) i jego grupy zadaniowej ds. AI.
„Generatywna AI przyspiesza przestępczość związaną z seksualnym wykorzystywaniem dzieci online w niezwykle niepokojący sposób – obniżając bariery, zwiększając skalę i umożliwiając nowe formy szkód” – powiedziała Michelle DeLaune, prezes i CEO National Center for Missing & Exploited Children, w oświadczeniu. „Ale jednocześnie National Center for Missing & Exploited Children z zadowoleniem obserwuje, jak firmy takie jak OpenAI zastanawiają się, w jaki sposób narzędzia te mogą być projektowane bardziej odpowiedzialnie, z zabezpieczeniami wbudowanymi od samego początku”.
OpenAI stwierdziło, że ramy łączą standardy prawne, branżowe systemy zgłaszania i techniczne zabezpieczenia w modelach AI. Firma oznajmiła, że środki te mają na celu wcześniejsze identyfikowanie zagrożeń związanych z wykorzystywaniem i poprawę odpowiedzialności na platformach internetowych.
Plan działania wskazuje obszary do podjęcia kroków, w tym aktualizację przepisów w celu zwalczania materiałów przedstawiających seksualne wykorzystywanie dzieci generowanych lub zmienianych przez AI, poprawę sposobu zgłaszania sygnałów nadużyć przez dostawców internetowych i koordynacji z śledczymi, a także wbudowywanie zabezpieczeń w systemy AI zaprojektowane w celu zapobiegania niewłaściwemu wykorzystaniu.
„Żadna pojedyncza interwencja nie jest w stanie samodzielnie sprostać temu wyzwaniu” – napisała firma. „Te ramy łączą podejścia prawne, operacyjne i techniczne, aby lepiej identyfikować ryzyka, przyspieszać reakcje i wspierać odpowiedzialność, jednocześnie zapewniając, że organy ścigania pozostają silne w miarę ewolucji technologii”.
Plan działania pojawia się w czasie, gdy obrońcy praw dzieci wyrazili obawy, że generatywne systemy AI zdolne do tworzenia realistycznych obrazów mogą być wykorzystywane do tworzenia manipulowanych lub syntetycznych przedstawień nieletnich. W lutym UNICEF wezwał rządy państw świata do uchwalenia przepisów kryminalizujących materiały przedstawiające wykorzystywanie dzieci generowane przez AI.
W styczniu Komisja Europejska wszczęła formalne dochodzenie w sprawie tego, czy X, wcześniej znany jako Twitter, naruszył cyfrowe przepisy UE, nie zapobiegając generowaniu nielegalnych treści przez natywny model AI platformy, Grok, podczas gdy organy regulacyjne w Wielkiej Brytanii i Australii również wszczęły dochodzenia.
Zauważając, że same przepisy nie powstrzymają plagi materiałów nadużyć generowanych przez AI, OpenAI stwierdziło, że silniejsze standardy branżowe będą konieczne w miarę wzrostu możliwości systemów AI.
„Poprzez wcześniejsze przerywanie prób wykorzystania, poprawę jakości sygnałów wysyłanych do organów ścigania i wzmocnienie odpowiedzialności w całym ekosystemie, te ramy mają na celu zapobieganie szkodom, zanim one nastąpią, oraz pomaganie w zapewnieniu szybszej ochrony dzieciom, gdy pojawią się zagrożenia” – powiedziało OpenAI.