
A OpenAI está enfrentando um novo processo alegando que a empresa falhou em alertar a polícia depois que o ChatGPT foi ligado a um dos tiroteios escolares mais mortais do Canadá. O processo aumenta o crescente escrutínio sobre como as empresas de IA respondem a sinais de angústia e violência no mundo real.
De acordo com um relatório da Ars Technica, o processo foi apresentado na quarta-feira em um tribunal federal no Norte da Califórnia por uma menor não identificada de 12 anos, identificada como M.G., e sua mãe, Cia Edmonds, contra o CEO da OpenAI, Sam Altman, e várias entidades da OpenAI.
A ação acusa a empresa de negligência, falha em alertar as autoridades, responsabilidade pelo produto e de ajudar a possibilitar o tiroteio em massa.
"Sam Altman e sua equipe de liderança sabiam o que o silêncio significava para os cidadãos de Tumbler Ridge", afirma a queixa. "Eles estavam focados no que a divulgação significava para eles mesmos. Alertar a RCMP criaria um precedente: a OpenAI seria compelida a notificar as autoridades toda vez que sua equipe de segurança identificasse um usuário planejando violência no mundo real."
O caso decorre de um tiroteio em massa em Tumbler Ridge, Colúmbia Britânica, em fevereiro. As autoridades dizem que Jesse Van Rootselaar, de 18 anos, matou sua mãe e seu meio-irmão de 11 anos em casa antes de ir para a Tumbler Ridge Secondary School e abrir fogo. Cinco crianças e um educador foram mortos na escola antes que Van Rootselaar morresse por suicídio.
Entre os feridos estava M.G., que foi baleada três vezes e permanece hospitalizada com lesões cerebrais catastróficas. A queixa diz que ela está acordada e consciente, mas não consegue se mover nem falar.
Jay Edelson, fundador e CEO da Edelson PC, os advogados que representam várias das famílias que processam a OpenAI, disse que os próprios sistemas internos da empresa identificaram o risco, e vários funcionários pressionaram por intervenção.
"O próprio sistema da OpenAI sinalizou que o atirador estava envolvido em comunicações sobre violência planejada", disse Edelson à Decrypt. "Doze pessoas em sua equipe de segurança estavam se manifestando, dizendo que a OpenAI precisava alertar as autoridades. E, embora a resposta de Sam Altman tenha sido fraca, até ele foi forçado a admitir na semana passada que eles deveriam ter chamado as autoridades."
Edelson disse que as famílias e a comunidade de Tumbler Ridge estão exigindo mais transparência e responsabilidade da empresa.
"A OpenAI deve parar de esconder informações críticas das famílias, e não deve manter um produto perigoso no mercado, o que certamente levará a mais mortes", disse Edelson. "Finalmente, eles precisam pensar muito sobre como podem manter uma equipe de liderança que se preocupa mais em correr para um IPO do que com vidas humanas."
De acordo com o processo, os sistemas automatizados da OpenAI sinalizaram a conta do ChatGPT de Van Rootselaar em junho de 2025 por conversas envolvendo violência com armas e planejamento. Membros da equipe de segurança especializada da OpenAI revisaram os bate-papos e determinaram que o usuário representava uma ameaça crível e específica, recomendando que a Polícia Montada Real Canadense fosse notificada.
O processo alega que os líderes da OpenAI anularam as recomendações internas para alertar as autoridades, desativaram a conta de Van Rootselaar sem notificar a polícia e permitiram que ela retornasse criando uma nova conta com um endereço de e-mail diferente.
Os queixosos afirmam que o ChatGPT aprofundou a fixação violenta da atiradora por meio de recursos como memória, continuidade conversacional e sua disposição em se envolver em discussões sobre violência, enquanto a OpenAI enfraqueceu as salvaguardas em 2024 ao se afastar de recusas diretas em conversas envolvendo danos iminentes.
Na semana passada, Altman pediu desculpas publicamente à comunidade de Tumbler Ridge pela falha da empresa em alertar a polícia. Em uma carta relatada pela primeira vez pelo jornal canadense Tumbler Ridgelines, Altman reconheceu que a OpenAI deveria ter relatado a conta depois de bani-la em junho de 2025 por atividade relacionada a conduta violenta.
"Os eventos em Tumbler Ridge são uma tragédia. Temos uma política de tolerância zero para o uso de nossas ferramentas para auxiliar na prática de violência", disse um porta-voz da OpenAI à Decrypt. "Conforme compartilhamos com as autoridades canadenses, já fortalecemos nossas salvaguardas, incluindo a melhoria de como o ChatGPT responde a sinais de angústia, conectando pessoas a apoio local e recursos de saúde mental, fortalecendo a forma como avaliamos e escalamos potenciais ameaças de violência, e melhorando a detecção de violadores de políticas reincidentes."
A OpenAI já enfrenta outros processos ligados ao suposto papel do ChatGPT em danos no mundo real, incluindo um caso de morte por negligência protocolado em dezembro acusando a OpenAI e a Microsoft de "projetar e distribuir um produto defeituoso" na forma do agora depreciado modelo GPT-4o. O processo alega que o ChatGPT reforçou as crenças paranoicas de Stein-Erik Soelberg antes que ele matasse sua mãe, Suzanne Adams, e depois a si mesmo em sua casa em Greenwich, Connecticut — marcando o primeiro processo a ligar um chatbot de IA a um homicídio.
"Este é o primeiro caso que busca responsabilizar a OpenAI por causar violência a terceiros", disse J. Eli Wade-Scott, sócio-gerente da Edelson PC, à Decrypt na época. "Estamos instando as autoridades a começar a pensar, quando tragédias como esta ocorrem, no que o usuário estava dizendo ao ChatGPT e no que o ChatGPT estava dizendo a ele para fazer."