openai-child-safety-blueprint-ai-exploitation
OpenAI Publica un Plan para la Seguridad Infantil para Abordar la Explotación Potenciada por IA
El nuevo plan de política de OpenAI describe las medidas que la industria puede tomar para combatir la explotación sexual infantil facilitada por la inteligencia artificial.
2026-04-08 Fuente:decrypt.co

En breve

  • OpenAI publicó su "Plan de seguridad infantil" abordando la explotación sexual infantil habilitada por IA.
  • El marco se centra en reformas legales, una mayor coordinación de informes y salvaguardias integradas en los sistemas de IA.
  • La propuesta se desarrolló con aportaciones de grupos de seguridad infantil, fiscales generales y organizaciones sin fines de lucro.

Con el objetivo de abordar el aumento de la explotación sexual infantil habilitada por IA, OpenAI publicó el miércoles un plan estratégico que describe nuevas medidas de seguridad que la industria puede adoptar para ayudar a frenar el uso de la IA en la creación de material de abuso sexual infantil.

En este marco, OpenAI enumera medidas legales, operativas y técnicas destinadas a fortalecer las protecciones contra el abuso habilitado por IA y mejorar la coordinación entre las empresas de tecnología y los investigadores.

"La explotación sexual infantil es uno de los desafíos más urgentes de la era digital", escribió la compañía. "La IA está cambiando rápidamente tanto la forma en que surgen estos daños en toda la industria como la forma en que pueden abordarse a escala".

OpenAI señaló que la propuesta incorpora la retroalimentación de organizaciones que trabajan en la protección infantil y la seguridad en línea, incluido el Centro Nacional para Niños Desaparecidos y Explotados (National Center for Missing and Exploited Children) y la Alianza de Fiscales Generales (Attorney General Alliance) y su grupo de trabajo de IA.

"La IA generativa está acelerando el crimen de la explotación sexual infantil en línea de maneras profundamente preocupantes: reduciendo barreras, aumentando la escala y permitiendo nuevas formas de daño", dijo Michelle DeLaune, presidenta y directora ejecutiva del Centro Nacional para Niños Desaparecidos y Explotados, en un comunicado. "Pero al mismo tiempo, el Centro Nacional para Niños Desaparecidos y Explotados se siente alentado al ver a empresas como OpenAI reflexionar sobre cómo estas herramientas pueden diseñarse de manera más responsable, con salvaguardias integradas desde el principio".

OpenAI indicó que el marco combina estándares legales, sistemas de reporte de la industria y salvaguardias técnicas dentro de los modelos de IA. La compañía afirmó que estas medidas tienen como objetivo ayudar a identificar los riesgos de explotación más temprano y mejorar la rendición de cuentas en todas las plataformas en línea.

El plan estratégico identifica áreas de acción, incluyendo la actualización de leyes para abordar el material de abuso sexual infantil generado o alterado por IA, la mejora de cómo los proveedores en línea reportan señales de abuso y coordinan con los investigadores, y la integración de salvaguardias en los sistemas de IA diseñadas para prevenir el uso indebido.

"Ninguna intervención por sí sola puede abordar este desafío", escribió la compañía. "Este marco reúne enfoques legales, operativos y técnicos para identificar mejor los riesgos, acelerar las respuestas y apoyar la rendición de cuentas, al tiempo que garantiza que las autoridades de aplicación de la ley sigan siendo fuertes a medida que la tecnología evoluciona".

El plan surge mientras los defensores de la seguridad infantil han expresado su preocupación de que los sistemas de IA generativa capaces de producir imágenes realistas podrían usarse para crear representaciones manipuladas o sintéticas de menores. En febrero, UNICEF instó a los gobiernos de todo el mundo a aprobar leyes que criminalicen el material de abuso infantil generado por IA.

En enero, la Comisión Europea lanzó una investigación formal para determinar si X, antes conocida como Twitter, violó las normas digitales de la UE al no evitar que el modelo de IA nativo de la plataforma, Grok, generara contenido ilegal, mientras que los reguladores del Reino Unido y Australia también han abierto investigaciones.

Señalando que las leyes por sí solas no detendrán el flagelo del material de abuso generado por IA, OpenAI afirmó que serán necesarios estándares industriales más estrictos a medida que los sistemas de IA se vuelvan más capaces.

"Al interrumpir los intentos de explotación más pronto, mejorar la calidad de las señales enviadas a las fuerzas del orden y fortalecer la rendición de cuentas en todo el ecosistema, este marco tiene como objetivo prevenir el daño antes de que ocurra y ayudar a garantizar una protección más rápida para los niños cuando surjan riesgos", dijo OpenAI.