Thứ Năm, 12/3/2026, 07:59 (GMT+1)

OpenAI đối mặt kiện tụng sau vụ xả súng đẫm máu ở Canada​

Canada – Vụ xả súng ngày 10-2 tại thị trấn nhỏ Tumbler Ridge, tỉnh British Columbia (Canada) đã khiến cả cộng đồng bàng hoàng khi 6 người thiệt mạng và nhiều người khác bị thương nặng, trong đó có trẻ em. Hung thủ được xác định là Jesse Van Rootselaar, một phụ nữ chuyển giới 18 tuổi, bị cáo buộc sát hại mẹ và em trai tại nhà riêng trước khi mang súng đến trường trung học địa phương và nổ súng vào học sinh, giáo viên. Khi lực lượng chức năng tiếp cận hiện trường, Van Rootselaar đã dùng súng tự sát, khép lại một đêm bạo lực nhưng mở ra hàng loạt câu hỏi nhức nhối về trách nhiệm cảnh báo sớm của các nền tảng công nghệ.

Theo thông tin do chính OpenAI cung cấp sau vụ việc, tài khoản ChatGPT của Van Rootselaar đã bị hệ thống tự động phát hiện có nhiều dấu hiệu liên quan đến bạo lực từ tháng 6-2025. Công ty sau đó vô hiệu hóa tài khoản này, song không chuyển tiếp thông tin cho cơ quan thực thi pháp luật vì cho rằng chưa đủ căn cứ chứng minh một cuộc tấn công sắp xảy ra trong đời thực. Tám tháng sau, bi kịch tại Tumbler Ridge đã diễn ra, biến quyết định im lặng trước đó của OpenAI thành tâm điểm tranh cãi.

Gia đình bé gái 12 tuổi Maya Gebala, một trong những nạn nhân sống sót nhưng bị thương đặc biệt nghiêm trọng trong vụ xả súng, đã nộp đơn kiện OpenAI. Họ được đại diện bởi công ty luật Rice, Parsons, Leoni và Elliot, cho rằng OpenAI đã “thiếu trách nhiệm và cẩu thả” khi xử lý các dấu hiệu nguy hiểm xuất hiện từ các tương tác của Van Rootselaar trên nền tảng ChatGPT. Lập luận của phía nguyên đơn là nếu những cảnh báo nội bộ này được chia sẻ kịp thời với lực lượng chức năng, thảm kịch tại trường trung học Tumbler Ridge rất có thể đã được ngăn chặn hoặc ít nhất mức độ thiệt hại có thể giảm đáng kể.

Vụ kiện nhanh chóng thu hút sự chú ý của chính quyền liên bang Canada. Các quan chức tại Ottawa đã triệu tập ban lãnh đạo OpenAI để yêu cầu giải trình về quy trình giám sát nội dung, cách thức nhận diện và xử lý các dấu hiệu đe dọa bạo lực, cũng như cơ chế phối hợp với cơ quan thực thi pháp luật. Trong bối cảnh nhiều nước đang tìm cách siết chặt quản lý trí tuệ nhân tạo, diễn biến này được xem như phép thử quan trọng đối với trách nhiệm pháp lý của các công ty công nghệ trong việc ngăn ngừa nguy cơ bạo lực ngoài đời thực.

Đáp lại làn sóng chỉ trích, OpenAI cho biết đã điều chỉnh quy trình đánh giá và xử lý rủi ro sau vụ việc ở Tumbler Ridge. Trong tuyên bố phát đi cuối tháng trước, công ty khẳng định theo chính sách mới, OpenAI sẽ chủ động thông báo cho cảnh sát Canada nếu phát hiện các trường hợp người dùng có dấu hiệu đe dọa đáng tin cậy, đủ mức nguy hiểm để coi là nguy cơ hiện hữu. Những thay đổi này, theo OpenAI, được xây dựng với sự tham vấn của chuyên gia sức khỏe tâm thần, nhà nghiên cứu hành vi và đại diện cơ quan thực thi pháp luật nhằm xác định ngưỡng nào trong một cuộc trò chuyện với chatbot có thể được coi là chuyển hóa thành đe dọa thực tế.

Trọng tâm của tranh luận hiện nay nằm ở ranh giới giữa bảo vệ quyền riêng tư của người dùng và nghĩa vụ bảo vệ an toàn cộng đồng. Giới chuyên gia cảnh báo nếu buộc các công ty công nghệ phải báo cáo mọi tín hiệu rủi ro, nguy cơ lạm dụng và giám sát quá mức là có thật, nhưng nếu hoàn toàn phó mặc cho thuật toán tự động chặn tài khoản mà không có cơ chế thông tin cho cảnh sát thì xã hội có thể phải trả giá đắt. Vụ kiện chống lại OpenAI vì thế được nhiều nhà quan sát xem như trường hợp điển hình, có thể định hình các chuẩn mực pháp lý mới về trách nhiệm của nền tảng trí tuệ nhân tạo với những hành vi bạo lực được ấp ủ trong môi trường trực tuyến.

Hải Hà

Bình luận 0

Chưa có bình luận nào.

Khám phá thêm từ ketnoi.de

Đăng ký ngay để tiếp tục đọc và truy cập kho lưu trữ đầy đủ.

Tiếp tục đọc