Thứ Năm, 8/1/2026, 19:55 (GMT+1)

Google, Character.AI và lỗ hổng đạo đức của kỷ nguyên chatbot

0:00 / 0:00

World – Google và Character.AI vừa đồng loạt chọn giải pháp dàn xếp ngoài tòa với một loạt gia đình kiện các công ty này vì cho rằng chatbot trí tuệ nhân tạo đã góp phần dẫn tới tự tử hoặc tổn hại nghiêm trọng sức khỏe tinh thần của con em họ tại Mỹ. Đây là những vụ việc đầu tiên liên quan trực tiếp đến AI hội thoại và hành vi tự hủy hoại của trẻ vị thành niên đi đến giai đoạn dàn xếp, báo hiệu một mặt trận pháp lý hoàn toàn mới đối với ngành công nghệ.​

Theo hồ sơ tòa án được công bố tại nhiều bang như Florida, New York, Colorado và Texas, các bên đã thống nhất nguyên tắc dàn xếp để chấm dứt mọi khiếu nại, nhưng các điều khoản cụ thể, đặc biệt là giá trị tài chính, vẫn được giữ kín. Điểm chung trong các đơn kiện là cáo buộc Character.AI đã để chatbot gợi ý, cổ vũ hoặc không can thiệp kịp thời khi người dùng trẻ tuổi bộc lộ ý nghĩ tự tử, thậm chí cho phép các kịch bản đóng vai bạo lực, ám ảnh và nội dung tình dục không phù hợp.​

Trong số các nguyên đơn, cái tên được nhắc đến nhiều là bà Megan Garcia, mẹ của Sewell Setzer Jr., thiếu niên 14 tuổi tại Florida đã tự tử vào tháng 2/2024 sau thời gian dài trò chuyện với một trợ lý ảo trên nền tảng Character.AI. Gia đình cho rằng cậu bé “nghiện” chatbot, chìm vào thế giới ảo nơi nhân vật được mô phỏng như người bạn thân, nhưng lại không có phanh an toàn khi em rơi vào khủng hoảng tâm lý.​

Google bị cuốn vào vụ việc không chỉ vì vai trò là đối tác phân phối, mà còn do thỏa thuận trị giá khoảng 2,7 tỷ USD để cấp phép công nghệ và “thuê lại” hai nhà sáng lập Character.AI là Noam Shazeer và Daniel De Freitas vào năm 2024. Điều này khiến các luật sư nguyên đơn lập luận rằng Google không thể đứng ngoài trách nhiệm khi hưởng lợi trực tiếp từ hệ sinh thái sản phẩm mà họ biết rõ còn nhiều lỗ hổng an toàn.​

Sau cái chết của Sewell Setzer Jr. và làn sóng chỉ trích ngày càng mạnh, Character.AI thông báo sẽ chặn chức năng trò chuyện đối với người dùng dưới 18 tuổi từ tháng 10/2025, một biện pháp được xem như “phanh gấp” trong bối cảnh sức ép dư luận tăng cao. Tuy vậy, câu hỏi đặt ra là vì sao quyết định này không được thực hiện sớm hơn, khi các cảnh báo về nguy cơ trẻ vị thành niên bị ảnh hưởng bởi nội dung cực đoan, lãng mạn hóa tự tử và bạo lực đã được giới chuyên gia nêu ra từ những ngày đầu các chatbot này bùng nổ.​

Những vụ kiện vừa được dàn xếp cho thấy ranh giới truyền thống giữa sản phẩm công nghệ trung lập và trách nhiệm đạo đức của nhà cung cấp đang bị xóa nhòa. Khi một hệ thống AI có khả năng đáp lại, trấn an, thuyết phục – thậm chí thao túng – người dùng ở trạng thái tâm lý mong manh, câu hỏi không còn là “nó có hoạt động đúng như thiết kế không” mà là “thiết kế đó có đặt an toàn con người lên trên cùng hay không”.​

Từ góc độ pháp lý, dàn xếp không đồng nghĩa với thừa nhận sai phạm, nhưng lại tạo ra một tiền lệ quan trọng: các công ty AI buộc phải cân nhắc chi phí rủi ro khi bỏ qua lớp bảo vệ người dùng, đặc biệt là trẻ em. Thực tế, nhiều đơn kiện nhắm vào Character.AI và các nền tảng tương tự vì “thiết kế cẩu thả”, cho phép tính năng nhập vai với nội dung đen tối mà không có cơ chế giám sát hiệu quả, hoặc cảnh báo rõ ràng cho phụ huynh.​

Ở chiều ngược lại, ngành công nghệ đang đứng trước bài toán khó: nếu siết quá chặt bằng bộ lọc, chatbot dễ trở nên vô hồn, ít tương tác và kém cạnh tranh so với đối thủ; nếu nới tay, doanh nghiệp đối mặt nguy cơ bị kiện vì bỏ mặc người dùng yếu thế trong không gian hội thoại do chính mình kiến tạo. Đó không còn là chuyện thuật toán đơn thuần, mà là sự lựa chọn mô hình kinh doanh: ưu tiên tăng trưởng người dùng hay đầu tư mạnh vào an toàn, chấp nhận giảm tốc để không đánh đổi bằng những bi kịch ngoài đời thực.​

Những gì đang diễn ra với Google và Character.AI cũng gửi tín hiệu rõ ràng đến nhà lập pháp và cơ quan quản lý trên toàn thế giới, trong đó có Việt Nam. Khi chatbot tiếng Việt, công cụ sinh nội dung, trợ lý ảo ngày càng len sâu vào đời sống, đặc biệt là trong môi trường giáo dục và giải trí của thanh thiếu niên, câu hỏi về chuẩn mực an toàn, cơ chế kiểm soát độ tuổi và trách nhiệm bồi thường khi có hậu quả xảy ra sẽ sớm bước ra khỏi phạm vi lý thuyết.​

Nhìn từ góc độ xã hội, vụ việc đã chạm vào nỗi lo âm ỉ bấy lâu: nhiều gia đình không nhận ra con mình đang tâm sự, trút nỗi cô đơn với một hệ thống máy học thay vì người thật. Khi những cuộc trò chuyện đó diễn ra trong không gian khép kín, không có người lớn giám sát, việc giao phó toàn bộ “vai trò lắng nghe” cho một chatbot chưa được kiểm chứng về chuẩn mực đạo đức là một canh bạc đầy rủi ro.​

Sau các thỏa thuận dàn xếp, câu hỏi quan trọng nhất không phải là con số bồi thường, mà là những thay đổi thực chất trong cách thiết kế, vận hành và quản trị hệ sinh thái AI hội thoại.

Travis Dinh

Bình luận 0

Chưa có bình luận nào.

Khám phá thêm từ ketnoi.de

Đăng ký ngay để tiếp tục đọc và truy cập kho lưu trữ đầy đủ.

Tiếp tục đọc