
OpenAI 正面臨一項新訴訟,指控該公司未能就 ChatGPT 與加拿大最致命的校園槍擊案之一相關聯發出警告。這項訴訟增加了對人工智慧公司如何回應求救信號和現實世界暴力事件的審查。
根據《Ars Technica》的報導,這項訴訟於週三在北加州聯邦法院提起,原告是一名不願透露姓名的 12 歲未成年人 M.G. 及其母親 Cia Edmonds,被告為 OpenAI 執行長 Sam Altman 和數個 OpenAI 實體。
訴訟指控該公司存在過失、未能警告當局、產品責任以及協助促成大規模槍擊事件。
訴狀指出:「Sam Altman 和他的領導團隊知道沉默對 Tumbler Ridge 居民意味著什麼。他們關心的是揭露對他們自己意味著什麼。警告加拿大皇家騎警將開創一個先例:OpenAI 將被迫在每次安全團隊發現用戶計劃實施現實世界暴力時通知當局。」
此案源於二月在不列顛哥倫比亞省 Tumbler Ridge 發生的大規模槍擊事件。當局表示,18 歲的 Jesse Van Rootselaar 在家中殺害了她的母親和 11 歲的繼弟,然後前往 Tumbler Ridge 中學開槍。五名兒童和一名教育工作者在學校中喪生,隨後 Van Rootselaar 自殺身亡。
傷者中包括 M.G.,她身中三槍,目前仍在醫院接受治療,腦部遭受災難性損傷。訴狀稱她清醒且有意識,但無法移動或說話。
Edelson PC 的創辦人兼執行長 Jay Edelson 律師,代表數個起訴 OpenAI 的家庭,表示該公司自己的內部系統識別出了風險,多名員工曾推動介入。
Edelson 告訴《Decrypt》:「OpenAI 自己的系統標記出槍手曾參與有關計劃暴力的通訊。他們安全團隊的十二名成員都極力主張 OpenAI 必須通知當局。儘管 Sam Altman 的回應很軟弱,但他上週也被迫承認他們應該打電話給當局。」
Edelson 表示,這些家庭和 Tumbler Ridge 社區要求公司提高透明度和問責制。
Edelson 說:「OpenAI 應該停止向這些家庭隱瞞關鍵信息,他們也不應該將一款註定會導致更多死亡的危險產品留在市場上。最後,他們需要認真思考如何維持一個更關心衝刺 IPO 而非人類生命的領導團隊。」
根據訴訟,OpenAI 的自動化系統於 2025 年 6 月標記了 Van Rootselaar 的 ChatGPT 帳戶,因為其對話涉及槍支暴力和策劃。OpenAI 專門安全團隊的成員審查了這些聊天記錄,並確定該用戶構成可信且具體的威脅,建議通知加拿大皇家騎警。
訴訟指控 OpenAI 的領導層推翻了內部關於通知當局的建議,在未通知警方的情況下停用了 Van Rootselaar 的帳戶,並允許她通過使用不同的電子郵件地址創建新帳戶重新使用。
原告聲稱,ChatGPT 通過記憶、對話連續性以及其參與暴力討論的意願,加深了槍手的暴力執念,而 OpenAI 在 2024 年通過不再直接拒絕涉及迫在眉睫傷害的對話,削弱了安全防範措施。
上週,Altman 就該公司未能向警方發出警告一事,公開向 Tumbler Ridge 社區道歉。在加拿大媒體《Tumbler Ridgelines》首次報導的一封信中,Altman 承認 OpenAI 在 2025 年 6 月因與暴力行為相關的活動而禁用該帳戶後,應該報告此事。
OpenAI 發言人告訴《Decrypt》:「Tumbler Ridge 的事件是一場悲劇。我們對使用我們的工具協助實施暴力行為採取零容忍政策。正如我們向加拿大官員所分享的,我們已經加強了我們的安全措施,包括改進 ChatGPT 對求救信號的響應方式、將人們與當地支持和心理健康資源聯繫起來、加強我們評估和升級潛在暴力威脅的方式,以及改進對重複違規者的檢測。」
OpenAI 已經面臨其他與 ChatGPT 被指控在現實世界中造成傷害相關的訴訟,其中包括去年 12 月提起的一項非正常死亡訴訟,指控 OpenAI 和微軟以現已棄用的 GPT-4o 模型「設計並分發有缺陷的產品」。該訴訟指控 ChatGPT 加強了 Stein-Erik Soelberg 的偏執信念,導致他在康乃狄克州格林威治的家中殺害了他的母親 Suzanne Adams,然後自殺——這標誌著首次將人工智慧聊天機器人與兇殺案聯繫起來的訴訟。
Edelson PC 的管理合夥人 J. Eli Wade-Scott 當時告訴《Decrypt》:「這是第一起尋求追究 OpenAI 對第三方造成暴力傷害責任的案件。我們敦促執法部門開始思考當這類悲劇發生時,用戶對 ChatGPT 說了什麼,以及 ChatGPT 告訴他們做了什麼。」