
بهدف معالجة تنامي الاستغلال الجنسي للأطفال المدعوم بالذكاء الاصطناعي، نشرت OpenAI يوم الأربعاء مخطط سياسة يحدد تدابير السلامة الجديدة التي يمكن للصناعة اتخاذها للمساعدة في الحد من استخدام الذكاء الاصطناعي في إنشاء مواد الاعتداء الجنسي على الأطفال.
في هذا الإطار، تسرد OpenAI تدابير قانونية وتشغيلية وتقنية تهدف إلى تعزيز سبل الحماية من الإساءة المدعومة بالذكاء الاصطناعي وتحسين التنسيق بين شركات التكنولوجيا والمحققين.
كتبت الشركة: "يُعد الاستغلال الجنسي للأطفال أحد أكثر التحديات إلحاحًا في العصر الرقمي". وأضافت: "يُغير الذكاء الاصطناعي بسرعة الطريقة التي تظهر بها هذه الأضرار عبر الصناعة وكيف يمكن معالجتها على نطاق واسع".
قالت OpenAI إن المقترح يتضمن ملاحظات من منظمات تعمل في مجال حماية الأطفال والسلامة عبر الإنترنت، بما في ذلك المركز الوطني للأطفال المفقود والمُستغلين وتحالف المدعين العامين وفريق عمل الذكاء الاصطناعي التابع له.
قالت ميشيل ديلاون، الرئيسة التنفيذية للمركز الوطني للأطفال المفقود والمُستغلين، في بيان: "يُسرّع الذكاء الاصطناعي التوليدي جريمة الاستغلال الجنسي للأطفال عبر الإنترنت بطرق مقلقة للغاية - فهو يقلل الحواجز، ويزيد النطاق، ويمكّن أشكالًا جديدة من الضرر". وأضافت: "لكن في الوقت نفسه، يشجع المركز الوطني للأطفال المفقود والمُستغلين رؤية شركات مثل OpenAI تفكر في كيفية تصميم هذه الأدوات بشكل أكثر مسؤولية، مع بناء الضمانات منذ البداية".
قالت OpenAI إن الإطار يجمع بين المعايير القانونية، وأنظمة الإبلاغ الصناعية، والضمانات التقنية ضمن نماذج الذكاء الاصطناعي. وقالت الشركة إن هذه التدابير تهدف إلى المساعدة في تحديد مخاطر الاستغلال مبكرًا وتحسين المساءلة عبر المنصات عبر الإنترنت.
يحدد المخطط مجالات العمل، بما في ذلك تحديث القوانين لمعالجة مواد الاعتداء الجنسي على الأطفال التي تم إنشاؤها أو تعديلها بواسطة الذكاء الاصطناعي، وتحسين كيفية إبلاغ مقدمي الخدمات عبر الإنترنت عن إشارات الإساءة والتنسيق مع المحققين، وبناء ضمانات في أنظمة الذكاء الاصطناعي المصممة لمنع سوء الاستخدام.
كتبت الشركة: "لا يمكن لتدخل واحد معالجة هذا التحدي بمفرده". وأضافت: "يجمع هذا الإطار بين المناهج القانونية والتشغيلية والتقنية لتحديد المخاطر بشكل أفضل، وتسريع الاستجابات، ودعم المساءلة، مع ضمان بقاء سلطات الإنفاذ قوية مع تطور التكنولوجيا".
يأتي هذا المخطط في الوقت الذي أعرب فيه دعاة سلامة الأطفال عن مخاوفهم من أن أنظمة الذكاء الاصطناعي التوليدية القادرة على إنتاج صور واقعية يمكن استخدامها لإنشاء صور مُعالجة أو اصطناعية للقُصّر. وفي فبراير، دعت اليونيسف الحكومات العالمية إلى سن قوانين تجرم مواد الاعتداء الجنسي على الأطفال المُنشأة بواسطة الذكاء الاصطناعي.
في يناير، أطلقت المفوضية الأوروبية تحقيقًا رسميًا حول ما إذا كانت منصة X، المعروفة سابقًا باسم تويتر، قد انتهكت قواعد الاتحاد الأوروبي الرقمية بفشلها في منع نموذج الذكاء الاصطناعي الأصلي للمنصة، Grok، من توليد محتوى غير قانوني، كما فتح المنظمون في المملكة المتحدة وأستراليا تحقيقات أيضًا.
وأشارت OpenAI إلى أن القوانين وحدها لن توقف آفة مواد الإساءة الناتجة عن الذكاء الاصطناعي، وقالت إن معايير صناعية أقوى ستكون ضرورية مع تزايد قدرة أنظمة الذكاء الاصطناعي.
قالت OpenAI: "من خلال قطع محاولات الاستغلال مبكرًا، وتحسين جودة الإشارات المرسلة إلى سلطات إنفاذ القانون، وتعزيز المساءلة عبر النظام البيئي، يهدف هذا الإطار إلى منع الضرر قبل حدوثه والمساعدة في ضمان حماية أسرع للأطفال عند ظهور المخاطر".