
OpenAI đang đối mặt với một vụ kiện mới cáo buộc công ty đã không cảnh báo cảnh sát sau khi ChatGPT được liên hệ với một trong những vụ xả súng học đường đẫm máu nhất Canada. Vụ kiện này bổ sung vào sự giám sát ngày càng tăng về cách các công ty AI phản ứng với các dấu hiệu đau khổ và bạo lực trong thế giới thực.
Theo một báo cáo của Ars Technica, vụ kiện đã được đệ trình vào thứ Tư tại tòa án liên bang ở Bắc California bởi một trẻ vị thành niên 12 tuổi không nêu tên, được xác định là M.G., và mẹ của em, Cia Edmonds, chống lại Giám đốc điều hành OpenAI Sam Altman và một số thực thể của OpenAI.
Vụ kiện cáo buộc công ty sơ suất, không cảnh báo chính quyền, chịu trách nhiệm về sản phẩm và giúp đỡ kích hoạt vụ xả súng hàng loạt.
Đơn kiện nêu rõ: “Sam Altman và đội ngũ lãnh đạo của ông biết sự im lặng có ý nghĩa gì đối với người dân Tumbler Ridge”. “Họ tập trung vào việc tiết lộ thông tin có ý nghĩa gì đối với bản thân họ. Việc cảnh báo RCMP sẽ tạo ra một tiền lệ: OpenAI sẽ buộc phải thông báo cho chính quyền mỗi khi đội ngũ an toàn của họ xác định một người dùng đang lên kế hoạch cho hành vi bạo lực trong thế giới thực.”
Vụ án bắt nguồn từ một vụ xả súng hàng loạt ở Tumbler Ridge, British Columbia, vào tháng 2. Các nhà chức trách cho biết Jesse Van Rootselaar, 18 tuổi, đã giết mẹ và em trai kế 11 tuổi tại nhà trước khi đến Trường Trung học Tumbler Ridge và nổ súng. Năm trẻ em và một giáo viên đã thiệt mạng tại trường trước khi Van Rootselaar tự sát.
Trong số những người bị thương có M.G., người đã bị bắn ba phát và vẫn đang nhập viện với chấn thương não nghiêm trọng. Đơn kiện cho biết em đã tỉnh táo và nhận thức được, nhưng không thể di chuyển hoặc nói chuyện.
Jay Edelson, người sáng lập và CEO của Edelson PC, các luật sư đại diện cho một số gia đình kiện OpenAI, cho biết các hệ thống nội bộ của công ty đã xác định rủi ro và nhiều nhân viên đã thúc đẩy sự can thiệp.
“Hệ thống của OpenAI đã đánh dấu rằng tay súng đang tham gia vào các cuộc trò chuyện về bạo lực đã được lên kế hoạch,” Edelson nói với Decrypt. “Mười hai người trong đội ngũ an toàn của họ đã sôi sục, nói rằng OpenAI cần phải cảnh báo chính quyền. Và, mặc dù phản ứng của Sam Altman còn yếu ớt, ngay cả ông ấy cũng buộc phải thừa nhận tuần trước rằng họ lẽ ra phải gọi cho chính quyền.”
Edelson cho biết các gia đình và cộng đồng Tumbler Ridge đang yêu cầu sự minh bạch và trách nhiệm giải trình cao hơn từ công ty.
Edelson nói: “OpenAI nên ngừng che giấu thông tin quan trọng khỏi các gia đình, và họ không nên giữ một sản phẩm nguy hiểm trên thị trường, điều này chắc chắn sẽ dẫn đến nhiều cái chết hơn”. “Cuối cùng, họ cần suy nghĩ thật kỹ về việc làm thế nào để duy trì một đội ngũ lãnh đạo quan tâm đến việc nhanh chóng IPO hơn là mạng sống con người.”
Theo đơn kiện, các hệ thống tự động của OpenAI đã gắn cờ tài khoản ChatGPT của Van Rootselaar vào tháng 6 năm 2025 vì các cuộc trò chuyện liên quan đến bạo lực súng đạn và kế hoạch. Các thành viên của đội ngũ an toàn chuyên trách của OpenAI đã xem xét các cuộc trò chuyện và xác định người dùng này gây ra một mối đe dọa đáng tin cậy và cụ thể, khuyến nghị rằng Cảnh sát Hoàng gia Canada nên được thông báo.
Vụ kiện cáo buộc rằng các nhà lãnh đạo OpenAI đã bác bỏ các khuyến nghị nội bộ về việc cảnh báo chính quyền, vô hiệu hóa tài khoản của Van Rootselaar mà không thông báo cho cảnh sát, và cho phép cô ta quay lại bằng cách tạo một tài khoản mới với địa chỉ email khác.
Các nguyên đơn tuyên bố ChatGPT đã làm sâu sắc thêm sự ám ảnh bạo lực của kẻ xả súng thông qua các tính năng như bộ nhớ, tính liên tục trong cuộc trò chuyện và sự sẵn lòng tham gia vào các cuộc thảo luận về bạo lực, trong khi OpenAI đã làm suy yếu các biện pháp bảo vệ vào năm 2024 bằng cách từ bỏ việc từ chối thẳng thừng trong các cuộc trò chuyện liên quan đến mối đe dọa sắp xảy ra.
Tuần trước, Altman đã công khai xin lỗi cộng đồng Tumbler Ridge vì việc công ty không cảnh báo cảnh sát. Trong một lá thư được hãng tin Canada Tumbler Ridgelines đưa tin đầu tiên, Altman thừa nhận OpenAI lẽ ra phải báo cáo tài khoản này sau khi cấm nó vào tháng 6 năm 2025 vì hoạt động liên quan đến hành vi bạo lực.
“Các sự kiện ở Tumbler Ridge là một thảm kịch. Chúng tôi có chính sách không khoan nhượng đối với việc sử dụng các công cụ của mình để hỗ trợ thực hiện hành vi bạo lực,” một phát ngôn viên của OpenAI nói với Decrypt. “Như chúng tôi đã chia sẻ với các quan chức Canada, chúng tôi đã tăng cường các biện pháp bảo vệ của mình, bao gồm cải thiện cách ChatGPT phản ứng với các dấu hiệu đau khổ, kết nối mọi người với các nguồn hỗ trợ địa phương và tài nguyên sức khỏe tâm thần, tăng cường cách chúng tôi đánh giá và leo thang các mối đe dọa bạo lực tiềm tàng, và cải thiện việc phát hiện những người vi phạm chính sách lặp lại.”
OpenAI đã phải đối mặt với các vụ kiện khác liên quan đến vai trò bị cáo buộc của ChatGPT trong việc gây hại trong thế giới thực, bao gồm một vụ kiện về cái chết sai trái được đệ trình vào tháng 12, cáo buộc OpenAI và Microsoft “thiết kế và phân phối một sản phẩm bị lỗi” dưới dạng mô hình GPT-4o hiện đã lỗi thời. Vụ kiện cáo buộc rằng ChatGPT đã củng cố niềm tin hoang tưởng của Stein-Erik Soelberg trước khi anh ta giết mẹ mình, Suzanne Adams, và sau đó tự sát tại nhà của họ ở Greenwich, Connecticut—đánh dấu vụ kiện đầu tiên liên kết một chatbot AI với một vụ giết người.
“Đây là vụ kiện đầu tiên tìm cách buộc OpenAI chịu trách nhiệm về việc gây bạo lực cho bên thứ ba,” J. Eli Wade-Scott, đối tác quản lý của Edelson PC, nói với Decrypt vào thời điểm đó. “Chúng tôi đang kêu gọi cơ quan thực thi pháp luật bắt đầu suy nghĩ về việc khi những bi kịch như thế này xảy ra, người dùng đó đã nói gì với ChatGPT, và ChatGPT đã bảo họ làm gì.”