
اوپنایآی، با هدف مقابله با افزایش سوءاستفاده جنسی از کودکان با کمک هوش مصنوعی، روز چهارشنبه یک طرح اولیه سیاستی منتشر کرد که اقدامات ایمنی جدیدی را مشخص میکند که صنعت میتواند برای مهار استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده جنسی از کودکان اتخاذ کند.
در این چارچوب، اوپنایآی اقدامات قانونی، عملیاتی و فنی را با هدف تقویت حفاظتها در برابر سوءاستفادههای مبتنی بر هوش مصنوعی و بهبود هماهنگی بین شرکتهای فناوری و بازرسان فهرست کرده است.
این شرکت نوشت: «استثمار جنسی کودکان یکی از فوریترین چالشهای عصر دیجیتال است.» «هوش مصنوعی به سرعت در حال تغییر هم چگونگی ظهور این آسیبها در سراسر صنعت و هم چگونگی مقابله با آنها در مقیاس بزرگ است.»
اوپنایآی گفت که این پیشنهاد بازخوردهای سازمانهای فعال در زمینه حمایت از کودکان و ایمنی آنلاین، از جمله مرکز ملی کودکان گمشده و استثمارشده و اتحاد دادستانهای کل و کارگروه هوش مصنوعی آن را در خود جای داده است.
میشل دیلان، رئیس و مدیرعامل مرکز ملی کودکان گمشده و استثمارشده، در بیانیهای گفت: «هوش مصنوعی مولد، جرم استثمار جنسی کودکان آنلاین را به روشهای بسیار نگرانکنندهای تسریع میکند – موانع را کاهش میدهد، مقیاس را افزایش میدهد و اشکال جدیدی از آسیب را ممکن میسازد.» وی افزود: «اما در عین حال، مرکز ملی کودکان گمشده و استثمارشده از دیدن شرکتهایی مانند اوپنایآی که به این فکر میکنند که چگونه میتوان این ابزارها را مسئولانهتر و با حفاظتهای تعبیهشده از ابتدا طراحی کرد، دلگرم شده است.»
اوپنایآی اظهار داشت که این چارچوب استانداردهای قانونی، سیستمهای گزارشدهی صنعتی و حفاظتهای فنی را در مدلهای هوش مصنوعی ترکیب میکند. این شرکت گفت که این اقدامات با هدف کمک به شناسایی زودهنگام خطرات استثمار و بهبود پاسخگویی در سراسر پلتفرمهای آنلاین است.
این نقشه راه، زمینههایی برای اقدام را شناسایی میکند، از جمله بهروزرسانی قوانین برای مقابله با محتوای سوءاستفاده جنسی از کودکان تولیدشده یا تغییریافته توسط هوش مصنوعی، بهبود نحوه گزارشدهی نشانههای سوءاستفاده توسط ارائهدهندگان آنلاین و هماهنگی با بازرسان، و تعبیه حفاظتها در سیستمهای هوش مصنوعی طراحیشده برای جلوگیری از سوءاستفاده.
این شرکت نوشت: «هیچ مداخلهای به تنهایی نمیتواند این چالش را حل کند.» «این چارچوب رویکردهای قانونی، عملیاتی و فنی را برای شناسایی بهتر خطرات، تسریع پاسخها و حمایت از پاسخگویی گرد هم میآورد، در حالی که اطمینان میدهد که نهادهای اجرایی با تکامل فناوری قوی باقی میمانند.»
این طرح اولیه در حالی ارائه میشود که حامیان ایمنی کودکان نگرانیهایی را مطرح کردهاند که سیستمهای هوش مصنوعی مولد قادر به تولید تصاویر واقعگرایانه میتوانند برای ایجاد تصاویر دستکاریشده یا مصنوعی از خردسالان استفاده شوند. در ماه فوریه، یونیسف از دولتهای جهان خواست تا قوانینی را برای جرمانگاری محتوای سوءاستفاده جنسی از کودکان تولیدشده توسط هوش مصنوعی تصویب کنند.
در ژانویه، کمیسیون اروپا تحقیقات رسمی را آغاز کرد که آیا X، که قبلاً با نام توییتر شناخته میشد، با عدم جلوگیری از تولید محتوای غیرقانونی توسط مدل هوش مصنوعی بومی خود، گروک (Grok)، قوانین دیجیتال اتحادیه اروپا را نقض کرده است، در حالی که رگولاتورها در بریتانیا و استرالیا نیز تحقیقاتی را آغاز کردهاند.
اوپنایآی با اشاره به اینکه قوانین به تنهایی جلوی بلای محتوای سوءاستفادهگرایانه تولیدشده توسط هوش مصنوعی را نخواهند گرفت، گفت که استانداردهای صنعتی قویتر با توانمندتر شدن سیستمهای هوش مصنوعی ضروری خواهند بود.
اوپنایآی گفت: «با قطع زودتر تلاشهای استثمارگرانه، بهبود کیفیت سیگنالهای ارسالی به مجریان قانون، و تقویت پاسخگویی در سراسر اکوسیستم، این چارچوب با هدف جلوگیری از آسیب قبل از وقوع و کمک به تضمین حفاظت سریعتر از کودکان در هنگام ظهور خطرات است.»