openai-child-safety-blueprint-ai-exploitation
اوپن‌ای‌آی نقشه راه ایمنی کودکان برای مقابله با سوءاستفاده‌های مبتنی بر هوش مصنوعی را منتشر کرد
طرح سیاستی جدید OpenAI گام‌هایی را که صنعت می‌تواند برای مقابله با بهره‌برداری جنسی از کودکان با استفاده از هوش مصنوعی بردارد، مشخص می‌کند.
2026-04-08 منبع:decrypt.co

در یک نگاه

  • اوپن‌ای‌آی «نقشه راه ایمنی کودکان» خود را برای مقابله با سوءاستفاده جنسی از کودکان با کمک هوش مصنوعی منتشر کرد.
  • این چارچوب بر اصلاحات قانونی، هماهنگی قوی‌تر در گزارش‌دهی و حفاظت‌های تعبیه‌شده در سیستم‌های هوش مصنوعی تمرکز دارد.
  • این پیشنهاد با ورودی گروه‌های ایمنی کودکان، دادستان‌های کل و سازمان‌های غیرانتفاعی تدوین شده است.

اوپن‌ای‌آی، با هدف مقابله با افزایش سوءاستفاده جنسی از کودکان با کمک هوش مصنوعی، روز چهارشنبه یک طرح اولیه سیاستی منتشر کرد که اقدامات ایمنی جدیدی را مشخص می‌کند که صنعت می‌تواند برای مهار استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده جنسی از کودکان اتخاذ کند.

در این چارچوب، اوپن‌ای‌آی اقدامات قانونی، عملیاتی و فنی را با هدف تقویت حفاظت‌ها در برابر سوءاستفاده‌های مبتنی بر هوش مصنوعی و بهبود هماهنگی بین شرکت‌های فناوری و بازرسان فهرست کرده است.

این شرکت نوشت: «استثمار جنسی کودکان یکی از فوری‌ترین چالش‌های عصر دیجیتال است.» «هوش مصنوعی به سرعت در حال تغییر هم چگونگی ظهور این آسیب‌ها در سراسر صنعت و هم چگونگی مقابله با آن‌ها در مقیاس بزرگ است.»

اوپن‌ای‌آی گفت که این پیشنهاد بازخوردهای سازمان‌های فعال در زمینه حمایت از کودکان و ایمنی آنلاین، از جمله مرکز ملی کودکان گمشده و استثمارشده و اتحاد دادستان‌های کل و کارگروه هوش مصنوعی آن را در خود جای داده است.

میشل دیلان، رئیس و مدیرعامل مرکز ملی کودکان گمشده و استثمارشده، در بیانیه‌ای گفت: «هوش مصنوعی مولد، جرم استثمار جنسی کودکان آنلاین را به روش‌های بسیار نگران‌کننده‌ای تسریع می‌کند – موانع را کاهش می‌دهد، مقیاس را افزایش می‌دهد و اشکال جدیدی از آسیب را ممکن می‌سازد.» وی افزود: «اما در عین حال، مرکز ملی کودکان گمشده و استثمارشده از دیدن شرکت‌هایی مانند اوپن‌ای‌آی که به این فکر می‌کنند که چگونه می‌توان این ابزارها را مسئولانه‌تر و با حفاظت‌های تعبیه‌شده از ابتدا طراحی کرد، دلگرم شده است.»

اوپن‌ای‌آی اظهار داشت که این چارچوب استانداردهای قانونی، سیستم‌های گزارش‌دهی صنعتی و حفاظت‌های فنی را در مدل‌های هوش مصنوعی ترکیب می‌کند. این شرکت گفت که این اقدامات با هدف کمک به شناسایی زودهنگام خطرات استثمار و بهبود پاسخگویی در سراسر پلتفرم‌های آنلاین است.

این نقشه راه، زمینه‌هایی برای اقدام را شناسایی می‌کند، از جمله به‌روزرسانی قوانین برای مقابله با محتوای سوءاستفاده جنسی از کودکان تولیدشده یا تغییریافته توسط هوش مصنوعی، بهبود نحوه گزارش‌دهی نشانه‌های سوءاستفاده توسط ارائه‌دهندگان آنلاین و هماهنگی با بازرسان، و تعبیه حفاظت‌ها در سیستم‌های هوش مصنوعی طراحی‌شده برای جلوگیری از سوءاستفاده.

این شرکت نوشت: «هیچ مداخله‌ای به تنهایی نمی‌تواند این چالش را حل کند.» «این چارچوب رویکردهای قانونی، عملیاتی و فنی را برای شناسایی بهتر خطرات، تسریع پاسخ‌ها و حمایت از پاسخگویی گرد هم می‌آورد، در حالی که اطمینان می‌دهد که نهادهای اجرایی با تکامل فناوری قوی باقی می‌مانند.»

این طرح اولیه در حالی ارائه می‌شود که حامیان ایمنی کودکان نگرانی‌هایی را مطرح کرده‌اند که سیستم‌های هوش مصنوعی مولد قادر به تولید تصاویر واقع‌گرایانه می‌توانند برای ایجاد تصاویر دستکاری‌شده یا مصنوعی از خردسالان استفاده شوند. در ماه فوریه، یونیسف از دولت‌های جهان خواست تا قوانینی را برای جرم‌انگاری محتوای سوءاستفاده جنسی از کودکان تولیدشده توسط هوش مصنوعی تصویب کنند.

در ژانویه، کمیسیون اروپا تحقیقات رسمی را آغاز کرد که آیا X، که قبلاً با نام توییتر شناخته می‌شد، با عدم جلوگیری از تولید محتوای غیرقانونی توسط مدل هوش مصنوعی بومی خود، گروک (Grok)، قوانین دیجیتال اتحادیه اروپا را نقض کرده است، در حالی که رگولاتورها در بریتانیا و استرالیا نیز تحقیقاتی را آغاز کرده‌اند.

اوپن‌ای‌آی با اشاره به اینکه قوانین به تنهایی جلوی بلای محتوای سوءاستفاده‌گرایانه تولیدشده توسط هوش مصنوعی را نخواهند گرفت، گفت که استانداردهای صنعتی قوی‌تر با توانمندتر شدن سیستم‌های هوش مصنوعی ضروری خواهند بود.

اوپن‌ای‌آی گفت: «با قطع زودتر تلاش‌های استثمارگرانه، بهبود کیفیت سیگنال‌های ارسالی به مجریان قانون، و تقویت پاسخگویی در سراسر اکوسیستم، این چارچوب با هدف جلوگیری از آسیب قبل از وقوع و کمک به تضمین حفاظت سریع‌تر از کودکان در هنگام ظهور خطرات است.»

رمزارز های محبوب
همین حالا ثبت‌نام کنید، هیچ به‌روزرسانی‌ای را از دست ندهید!