openai-sued-failure-warn-police-tumbler-ridge-mass-shooting
OpenAI wegen unterlassener Warnung der Polizei vor dem Amoklauf in Tumbler Ridge verklagt
Eine Klage in Kalifornien könnte prüfen, ob KI-Unternehmen eine gesetzliche Verpflichtung haben, gewalttätige Drohungen nach einem Massenangriff in British Columbia zu melden.
2026-04-29 Quelle:decrypt.co

Kurz gesagt

  • OpenAI wird verklagt, weil ChatGPT angeblich eine Rolle bei einer Massenerschießung im Februar in British Columbia gespielt hat.
  • Die Kläger behaupten, das Sicherheitsteam von OpenAI habe das Unternehmen Monate vor dem Angriff gedrängt, die Polizei zu alarmieren.
  • Der Fall könnte die Frage klären, ob KI-Unternehmen Gewaltdrohungen den Strafverfolgungsbehörden melden müssen.

OpenAI sieht sich einer neuen Klage gegenüber, die behauptet, das Unternehmen habe es versäumt, die Polizei zu warnen, nachdem ChatGPT mit einer der tödlichsten Schulschießereien Kanadas in Verbindung gebracht wurde. Die Klage erhöht die wachsende Aufmerksamkeit auf die Art und Weise, wie KI-Unternehmen auf Anzeichen von Not und realer Gewalt reagieren.

Laut einem Bericht von Ars Technica wurde die Klage am Mittwoch von einem ungenannten 12-jährigen Minderjährigen, identifiziert als M.G., und ihrer Mutter, Cia Edmonds, gegen OpenAI-CEO Sam Altman und mehrere OpenAI-Einheiten beim Bundesgericht in Nordkalifornien eingereicht.

Die Klage wirft dem Unternehmen Fahrlässigkeit, Versäumnis, Behörden zu warnen, Produkthaftung und Beihilfe zur Massenerschießung vor.

„Sam Altman und sein Führungsteam wussten, was Schweigen für die Bürger von Tumbler Ridge bedeutete“, heißt es in der Klage. „Sie konzentrierten sich darauf, was die Offenlegung für sie selbst bedeutete. Eine Warnung an die RCMP würde einen Präzedenzfall schaffen: OpenAI wäre gezwungen, die Behörden jedes Mal zu benachrichtigen, wenn sein Sicherheitsteam einen Benutzer identifiziert, der reale Gewalt plant.“

Der Fall geht auf eine Massenerschießung in Tumbler Ridge, British Columbia, im Februar zurück. Die Behörden sagen, die 18-jährige Jesse Van Rootselaar habe zu Hause ihre Mutter und ihren 11-jährigen Stiefbruder getötet, bevor sie zur Tumbler Ridge Secondary School ging und das Feuer eröffnete. Fünf Kinder und ein Pädagoge wurden in der Schule getötet, bevor Van Rootselaar Selbstmord beging.

Zu den Verletzten gehörte M.G., die dreimal angeschossen wurde und mit katastrophalen Hirnverletzungen im Krankenhaus liegt. Die Klage besagt, dass sie wach und bei Bewusstsein ist, sich aber nicht bewegen oder sprechen kann.

Jay Edelson, Gründer und CEO von Edelson PC, den Anwälten, die mehrere der Familien vertreten, die OpenAI verklagen, sagte, die internen Systeme des Unternehmens hätten das Risiko erkannt, und mehrere Mitarbeiter hätten auf ein Eingreifen gedrängt.

„Das eigene System von OpenAI hat angezeigt, dass der Schütze in Kommunikationen über geplante Gewalt verwickelt war“, sagte Edelson gegenüber Decrypt. „Zwölf Personen in ihrem Sicherheitsteam schlugen Alarm und sagten, OpenAI müsse die Behörden alarmieren. Und obwohl Sam Altmans Reaktion schwach war, musste sogar er letzte Woche zugeben, dass sie die Behörden hätten rufen sollen.“

Edelson sagte, die Familien und die Gemeinde Tumbler Ridge forderten mehr Transparenz und Rechenschaftspflicht von dem Unternehmen.

„OpenAI sollte aufhören, den Familien kritische Informationen vorzuenthalten, und sie sollten kein gefährliches Produkt auf dem Markt halten, das zwangsläufig zu weiteren Todesfällen führen wird“, sagte Edelson. „Schließlich müssen sie gründlich darüber nachdenken, wie sie ein Führungsteam aufrechterhalten können, das sich mehr um den Sprint zu einem IPO als um Menschenleben kümmert.“

Laut der Klage haben die automatisierten Systeme von OpenAI Van Rootselaars ChatGPT-Konto im Juni 2025 wegen Gesprächen über Waffengewalt und Planungen markiert. Mitglieder des spezialisierten Sicherheitsteams von OpenAI überprüften die Chats und stellten fest, dass der Benutzer eine glaubwürdige und spezifische Bedrohung darstellte, und empfahlen, die Royal Canadian Mounted Police zu benachrichtigen.

Die Klage behauptet, OpenAI-Führungskräfte hätten interne Empfehlungen zur Alarmierung der Behörden überstimmt, Van Rootselaars Konto deaktiviert, ohne die Polizei zu benachrichtigen, und ihr erlaubt, durch die Erstellung eines neuen Kontos mit einer anderen E-Mail-Adresse zurückzukehren.

Die Kläger behaupten, ChatGPT habe die gewalttätige Fixierung des Schützen durch Funktionen wie Gedächtnis, Gesprächskontinuität und seine Bereitschaft, sich an Diskussionen über Gewalt zu beteiligen, vertieft, während OpenAI 2024 Schutzmaßnahmen geschwächt habe, indem es von direkten Ablehnungen in Gesprächen über unmittelbar bevorstehenden Schaden abgewichen sei.

Letzte Woche entschuldigte sich Altman öffentlich bei der Gemeinde Tumbler Ridge für das Versäumnis des Unternehmens, die Polizei zu alarmieren. In einem Brief, der zuerst von der kanadischen Publikation Tumbler Ridgelines gemeldet wurde, räumte Altman ein, dass OpenAI das Konto hätte melden sollen, nachdem es es im Juni 2025 wegen Aktivitäten im Zusammenhang mit gewalttätigem Verhalten gesperrt hatte.

„Die Ereignisse in Tumbler Ridge sind eine Tragödie. Wir haben eine Null-Toleranz-Politik für die Verwendung unserer Tools zur Unterstützung bei der Ausübung von Gewalt“, sagte ein OpenAI-Sprecher gegenüber Decrypt. „Wie wir den kanadischen Beamten mitgeteilt haben, haben wir unsere Schutzmaßnahmen bereits verstärkt, einschließlich der Verbesserung der Reaktion von ChatGPT auf Anzeichen von Not, der Verbindung von Menschen mit lokaler Unterstützung und psychologischen Ressourcen, der Stärkung der Bewertung und Eskalation potenzieller Gewaltandrohungen und der Verbesserung der Erkennung von wiederholten Richtlinienverletzern.“

OpenAI sieht sich bereits weiteren Klagen im Zusammenhang mit der angeblichen Rolle von ChatGPT bei realen Schäden gegenüber, darunter eine Klage wegen widerrechtlicher Tötung, die im Dezember eingereicht wurde und OpenAI und Microsoft vorwirft, ein „fehlerhaftes Produkt“ in Form des inzwischen veralteten GPT-4o-Modells „entwickelt und vertrieben“ zu haben. Die Klage behauptet, ChatGPT habe die paranoiden Überzeugungen von Stein-Erik Soelberg verstärkt, bevor er seine Mutter, Suzanne Adams, und dann sich selbst in ihrem Haus in Greenwich, Connecticut, tötete – dies ist die erste Klage, die einen KI-Chatbot mit einem Tötungsdelikt in Verbindung bringt.

„Dies ist der erste Fall, der versucht, OpenAI für die Verursachung von Gewalt gegen Dritte zur Rechenschaft zu ziehen“, sagte J. Eli Wade-Scott, geschäftsführender Partner von Edelson PC, damals gegenüber Decrypt. „Wir fordern die Strafverfolgungsbehörden auf, darüber nachzudenken, was der Benutzer ChatGPT in solchen Tragödien gesagt hat und was ChatGPT ihnen gesagt hat.“