openai-sued-failure-warn-police-tumbler-ridge-mass-shooting
OpenAI Pozwane za Nie Ostrzeżenie Policji Przed Masakrą w Tumbler Ridge
Pozew sądowy z Kalifornii może sprawdzić, czy firmy zajmujące się sztuczną inteligencją mają prawny obowiązek zgłaszania groźby przemocy po masowej strzelaninie w Kolumbii Brytyjskiej.
2026-04-29 Źródło:decrypt.co

W skrócie

  • OpenAI staje w obliczu pozwu, w którym zarzuca się, że ChatGPT odegrał rolę w masowej strzelaninie w lutym w Kolumbii Brytyjskiej.
  • Powodowie twierdzą, że zespół bezpieczeństwa OpenAI nalegał na firmę, aby powiadomiła policję na wiele miesięcy przed atakiem.
  • Sprawa może przetestować, czy firmy AI muszą zgłaszać groźby przemocy organom ścigania.

OpenAI staje w obliczu nowego pozwu, w którym zarzuca się firmie, że nie ostrzegła policji po tym, jak ChatGPT został powiązany z jedną z najgroźniejszych strzelanin szkolnych w Kanadzie. Pozew ten zwiększa rosnącą kontrolę nad tym, jak firmy AI reagują na sygnały zagrożenia i rzeczywistą przemoc.

Według raportu Ars Technica, pozew został złożony w środę w sądzie federalnym w Północnej Kalifornii przez nienazwaną 12-letnią małoletnią, zidentyfikowaną jako M.G., oraz jej matkę, Cię Edmonds, przeciwko prezesowi OpenAI, Samowi Altmanowi, i kilku podmiotom OpenAI.

Pozew oskarża firmę o zaniedbanie, brak ostrzeżenia władz, odpowiedzialność za produkt i pomoc w umożliwieniu masowej strzelaniny.

„Sam Altman i jego zespół kierowniczy wiedzieli, co cisza oznacza dla mieszkańców Tumbler Ridge” – stwierdza skarga. „Koncentrowali się na tym, co ujawnienie oznacza dla nich samych. Ostrzeżenie RCMP stworzyłoby precedens: OpenAI byłoby zmuszone do powiadamiania władz za każdym razem, gdy jego zespół bezpieczeństwa zidentyfikowałby użytkownika planującego rzeczywistą przemoc.”

Sprawa wywodzi się z masowej strzelaniny w Tumbler Ridge w Kolumbii Brytyjskiej w lutym. Władze twierdzą, że 18-letnia Jesse Van Rootselaar zabiła swoją matkę i 11-letniego przyrodniego brata w domu, po czym udała się do Tumbler Ridge Secondary School i otworzyła ogień. Pięcioro dzieci i jeden pedagog zginęli w szkole, zanim Van Rootselaar popełniła samobójstwo.

Wśród rannych była M.G., która została postrzelona trzy razy i pozostaje w szpitalu z katastrofalnymi obrażeniami mózgu. Skarga mówi, że jest przytomna i świadoma, ale nie może się poruszać ani mówić.

Jay Edelson, założyciel i dyrektor generalny Edelson PC, prawnicy reprezentujący kilka rodzin pozywających OpenAI, powiedział, że wewnętrzne systemy firmy zidentyfikowały ryzyko, a wielu pracowników nalegało na interwencję.

„Własny system OpenAI oznaczył, że strzelczyni prowadziła komunikację dotyczącą planowanej przemocy” – powiedział Edelson Decrypt. „Dwanaście osób z ich zespołu bezpieczeństwa nalegało, mówiąc, że OpenAI musi powiadomić władze. I chociaż odpowiedź Sama Altmana była słaba, nawet on był zmuszony przyznać w zeszłym tygodniu, że powinni byli wezwać władze.”

Edelson powiedział, że rodziny i społeczność Tumbler Ridge domagają się większej przejrzystości i odpowiedzialności od firmy.

„OpenAI powinno przestać ukrywać kluczowe informacje przed rodzinami i nie powinno utrzymywać niebezpiecznego produktu na rynku, co nieuchronnie doprowadzi do większej liczby zgonów” – powiedział Edelson. „Wreszcie, muszą poważnie zastanowić się, jak mogą utrzymać zespół kierowniczy, który bardziej dba o przyspieszenie wejścia na giełdę (IPO) niż o ludzkie życie.”

Zgodnie z pozwem, zautomatyzowane systemy OpenAI oznaczyły konto ChatGPT Van Rootselaar w czerwcu 2025 r. z powodu rozmów dotyczących przemocy z użyciem broni i planowania. Członkowie wyspecjalizowanego zespołu bezpieczeństwa OpenAI przeanalizowali czaty i stwierdzili, że użytkowniczka stanowiła wiarygodne i konkretne zagrożenie, zalecając powiadomienie Królewskiej Kanadyjskiej Policji Konnej (RCMP).

Pozew zarzuca, że ​​liderzy OpenAI odrzucili wewnętrzne rekomendacje dotyczące powiadomienia władz, dezaktywowali konto Van Rootselaar bez informowania policji i pozwolili jej na powrót poprzez stworzenie nowego konta z innym adresem e-mail.

Powodowie twierdzą, że ChatGPT pogłębił fiksację strzelczyni na przemocy poprzez funkcje takie jak pamięć, ciągłość rozmów i jego gotowość do angażowania się w dyskusje o przemocy, podczas gdy OpenAI osłabiło zabezpieczenia w 2024 roku, odchodząc od kategorycznych odmów w rozmowach dotyczących bezpośredniego zagrożenia.

W zeszłym tygodniu Altman publicznie przeprosił społeczność Tumbler Ridge za to, że firma nie powiadomiła policji. W liście, o którym po raz pierwszy poinformował kanadyjski portal Tumbler Ridgelines, Altman przyznał, że OpenAI powinno było zgłosić konto po jego zbanowaniu w czerwcu 2025 r. z powodu działalności związanej z brutalnym zachowaniem.

"Wydarzenia w Tumbler Ridge to tragedia. Mamy politykę zerowej tolerancji dla używania naszych narzędzi do wspierania popełniania przemocy” – powiedział Decrypt rzecznik OpenAI. „Jak podzieliliśmy się z kanadyjskimi urzędnikami, wzmocniliśmy już nasze zabezpieczenia, w tym poprawiając sposób, w jaki ChatGPT reaguje na oznaki zagrożenia, łącząc ludzi z lokalnym wsparciem i zasobami zdrowia psychicznego, wzmacniając sposób oceny i eskalacji potencjalnych zagrożeń przemocy oraz poprawiając wykrywanie powtarzających się naruszycieli zasad.”

OpenAI mierzy się już z innymi pozwami związanymi z rzekomą rolą ChatGPT w rzeczywistych szkodach, w tym ze sprawą o bezprawną śmierć złożoną w grudniu, oskarżającą OpenAI i Microsoft o „projektowanie i dystrybucję wadliwego produktu” w postaci obecnie już wycofanego modelu GPT-4o. Pozew zarzuca, że ChatGPT wzmocnił paranoiczne przekonania Steina-Erika Soelberga, zanim zabił swoją matkę, Suzanne Adams, a następnie siebie w ich domu w Greenwich, w stanie Connecticut – co oznacza pierwszy pozew łączący chatbota AI z zabójstwem.

„To pierwsza sprawa, która ma na celu pociągnięcie OpenAI do odpowiedzialności za spowodowanie przemocy wobec osoby trzeciej” – powiedział wówczas Decrypt J. Eli Wade-Scott, partner zarządzający Edelson PC. „Nalegamy na organy ścigania, aby zaczęły zastanawiać się, gdy dochodzi do takich tragedii, co dany użytkownik mówił ChatGPT i co ChatGPT mu kazał robić.”