
OpenAI se enfrenta a una nueva demanda que alega que la empresa no advirtió a la policía después de que ChatGPT fuera vinculado a uno de los tiroteos escolares más mortíferos de Canadá. La demanda se suma al creciente escrutinio sobre cómo las empresas de IA responden a las señales de angustia y violencia en el mundo real.
Según un informe de Ars Technica, la demanda fue presentada el miércoles en un tribunal federal del norte de California por una menor de 12 años no identificada como M.G. y su madre, Cia Edmonds, contra el CEO de OpenAI, Sam Altman, y varias entidades de OpenAI.
La demanda acusa a la empresa de negligencia, de no advertir a las autoridades, de responsabilidad por el producto y de ayudar a facilitar el tiroteo masivo.
“Sam Altman y su equipo de liderazgo sabían lo que el silencio significaba para los ciudadanos de Tumbler Ridge”, afirma la denuncia. “Estaban centrados en lo que la divulgación significaba para ellos mismos. Advertir a la RCMP sentaría un precedente: OpenAI se vería obligada a notificar a las autoridades cada vez que su equipo de seguridad identificara a un usuario planeando violencia en el mundo real.”
El caso se deriva de un tiroteo masivo en Tumbler Ridge, Columbia Británica, en febrero. Las autoridades afirman que Jesse Van Rootselaar, de 18 años, mató a su madre y a su hermanastro de 11 años en casa antes de ir a la Escuela Secundaria Tumbler Ridge y abrir fuego. Cinco niños y un educador murieron en la escuela antes de que Van Rootselaar se suicidara.
Entre los heridos se encontraba M.G., quien recibió tres disparos y permanece hospitalizada con lesiones cerebrales catastróficas. La denuncia dice que está despierta y consciente, pero no puede moverse ni hablar.
Jay Edelson, fundador y CEO de Edelson PC, los abogados que representan a varias de las familias que demandan a OpenAI, dijo que los propios sistemas internos de la compañía identificaron el riesgo, y varios empleados presionaron para que se interviniera.
“El propio sistema de OpenAI marcó que el tirador estaba involucrado en comunicaciones sobre violencia planificada”, dijo Edelson a Decrypt. “Doce personas de su equipo de seguridad estaban insistiendo en que OpenAI necesitaba alertar a las autoridades. Y, aunque la respuesta de Sam Altman ha sido débil, incluso él se vio obligado a admitir la semana pasada que deberían haber llamado a las autoridades.”
Edelson dijo que las familias y la comunidad de Tumbler Ridge exigen más transparencia y responsabilidad por parte de la empresa.
“OpenAI debería dejar de ocultar información crítica a las familias, y no deberían mantener un producto peligroso en el mercado, lo que está destinado a provocar más muertes”, dijo Edelson. “Finalmente, necesitan pensar detenidamente cómo pueden mantener un equipo de liderazgo que se preocupa más por acelerar una oferta pública inicial (IPO) que por las vidas humanas.”
Según la demanda, los sistemas automatizados de OpenAI marcaron la cuenta de ChatGPT de Van Rootselaar en junio de 2025 por conversaciones que involucraban violencia con armas de fuego y planificación. Miembros del equipo de seguridad especializado de OpenAI revisaron los chats y determinaron que el usuario representaba una amenaza creíble y específica, recomendando que se notificara a la Real Policía Montada de Canadá.
La demanda alega que los líderes de OpenAI anularon las recomendaciones internas de alertar a las autoridades, desactivaron la cuenta de Van Rootselaar sin notificar a la policía y le permitieron regresar creando una nueva cuenta con una dirección de correo electrónico diferente.
Los demandantes afirman que ChatGPT profundizó la fijación violenta del tirador a través de características como la memoria, la continuidad conversacional y su disposición a participar en discusiones sobre violencia, mientras que OpenAI debilitó las salvaguardas en 2024 al alejarse de las negativas rotundas en conversaciones que implicaban un daño inminente.
La semana pasada, Altman se disculpó públicamente con la comunidad de Tumbler Ridge por el fracaso de la compañía en alertar a la policía. En una carta reportada por primera vez por el medio canadiense Tumbler Ridgelines, Altman reconoció que OpenAI debería haber informado sobre la cuenta después de prohibirla en junio de 2025 por actividades relacionadas con conducta violenta.
"Los acontecimientos en Tumbler Ridge son una tragedia. Tenemos una política de tolerancia cero para el uso de nuestras herramientas para ayudar a cometer violencia”, dijo un portavoz de OpenAI a Decrypt. “Como compartimos con los funcionarios canadienses, ya hemos fortalecido nuestras salvaguardas, incluyendo la mejora de cómo ChatGPT responde a las señales de angustia, conectando a las personas con apoyo local y recursos de salud mental, fortaleciendo cómo evaluamos y escalamos las amenazas potenciales de violencia, y mejorando la detección de infractores de políticas reincidentes.”
OpenAI ya se enfrenta a otras demandas vinculadas al presunto papel de ChatGPT en daños en el mundo real, incluyendo un caso de muerte por negligencia presentado en diciembre que acusa a OpenAI y Microsoft de “diseñar y distribuir un producto defectuoso” en forma del modelo GPT-4o, ahora en desuso. La demanda alega que ChatGPT reforzó las creencias paranoicas de Stein-Erik Soelberg antes de que matara a su madre, Suzanne Adams, y luego a sí mismo en su casa en Greenwich, Connecticut, lo que marca la primera demanda en vincular un chatbot de IA con un homicidio.
“Este es el primer caso que busca responsabilizar a OpenAI por causar violencia a un tercero”, dijo J. Eli Wade-Scott, socio gerente de Edelson PC, a Decrypt en ese momento. “Estamos instando a las fuerzas del orden a que empiecen a pensar, cuando ocurren tragedias como esta, qué decía ese usuario a ChatGPT y qué le decía ChatGPT que hiciera.”