openai-child-safety-blueprint-ai-exploitation
OpenAI Publica Plano de Segurança Infantil para Combater a Exploração Facilitada por IA
O novo plano de políticas da OpenAI descreve medidas que a indústria pode adotar para combater a exploração sexual infantil facilitada por IA.
2026-04-08 Fonte:decrypt.co

Em resumo

  • A OpenAI publicou seu “Plano de Segurança Infantil” abordando a exploração sexual infantil impulsionada por IA.
  • A estrutura foca em reformas legais, coordenação de denúncias mais forte e salvaguardas incorporadas nos sistemas de IA.
  • A proposta foi desenvolvida com a colaboração de grupos de segurança infantil, procuradores-gerais e organizações sem fins lucrativos.

Com o objetivo de combater o aumento da exploração sexual infantil impulsionada por IA, a OpenAI publicou na quarta-feira um plano de políticas que descreve novas medidas de segurança que a indústria pode adotar para ajudar a conter o uso de IA na criação de material de abuso sexual infantil.

Na estrutura, a OpenAI lista medidas legais, operacionais e técnicas destinadas a fortalecer as proteções contra o abuso impulsionado por IA e melhorar a coordenação entre empresas de tecnologia e investigadores.

“A exploração sexual infantil é um dos desafios mais urgentes da era digital”, escreveu a empresa. “A IA está mudando rapidamente tanto a forma como esses danos surgem na indústria quanto como eles podem ser abordados em escala.”

A OpenAI disse que a proposta incorpora feedback de organizações que trabalham na proteção infantil e segurança online, incluindo o Centro Nacional para Crianças Desaparecidas e Exploradas e a Attorney General Alliance e sua força-tarefa de IA.

“A IA generativa está acelerando o crime de exploração sexual infantil online de maneiras profundamente preocupantes – reduzindo barreiras, aumentando a escala e permitindo novas formas de dano”, disse Michelle DeLaune, Presidente e CEO do Centro Nacional para Crianças Desaparecidas e Exploradas, em um comunicado. “Mas, ao mesmo tempo, o Centro Nacional para Crianças Desaparecidas e Exploradas está encorajado a ver empresas como a OpenAI refletir sobre como essas ferramentas podem ser projetadas de forma mais responsável, com salvaguardas incorporadas desde o início.”

A OpenAI disse que a estrutura combina padrões legais, sistemas de denúncia da indústria e salvaguardas técnicas dentro dos modelos de IA. A empresa afirmou que essas medidas visam ajudar a identificar riscos de exploração mais cedo e melhorar a responsabilização em plataformas online.

O plano identifica áreas de ação, incluindo a atualização de leis para abordar material de abuso sexual infantil gerado ou alterado por IA, melhorando a forma como os provedores online denunciam sinais de abuso e coordenam com investigadores, e construindo salvaguardas em sistemas de IA projetados para prevenir o uso indevido.

“Nenhuma intervenção isolada pode resolver este desafio sozinha”, escreveu a empresa. “Esta estrutura reúne abordagens legais, operacionais e técnicas para identificar melhor os riscos, acelerar as respostas e apoiar a responsabilização, garantindo que as autoridades de fiscalização permaneçam fortes à medida que a tecnologia evolui.”

O plano surge enquanto defensores da segurança infantil têm levantado preocupações de que sistemas de IA generativa capazes de produzir imagens realistas poderiam ser usados para criar representações manipuladas ou sintéticas de menores. Em fevereiro, a UNICEF apelou aos governos mundiais para aprovarem leis que criminalizem o material de abuso infantil gerado por IA.

Em janeiro, a Comissão Europeia lançou uma investigação formal para apurar se o X, anteriormente conhecido como Twitter, violou as regras digitais da UE ao não impedir que o modelo de IA nativo da plataforma, Grok, gerasse conteúdo ilegal, uma vez que reguladores no Reino Unido e na Austrália também abriram investigações.

Observando que as leis sozinhas não deterão o flagelo do material de abuso gerado por IA, a OpenAI disse que padrões da indústria mais rigorosos serão necessários à medida que os sistemas de IA se tornarem mais capazes.

“Ao interromper tentativas de exploração mais cedo, melhorando a qualidade dos sinais enviados às autoridades e fortalecendo a responsabilização em todo o ecossistema, esta estrutura visa prevenir danos antes que aconteçam e ajudar a garantir uma proteção mais rápida para crianças quando surgirem riscos”, afirmou a OpenAI.