Thêm bảy gia đình hiện đang kiện OpenAI về vai trò của ChatGPT trong các vụ tự tử, ảo tưởng

Bảy gia đình đã đệ đơn kiện OpenAI vào thứ Năm, cho rằng mẫu GPT-4o của công ty đã được phát hành sớm và không có biện pháp bảo vệ hiệu quả. Bốn trong số các vụ kiện đề cập đến vai trò bị cáo buộc của ChatGPT trong các vụ tự tử của các thành viên trong gia đình, trong khi ba vụ kiện còn lại cho rằng ChatGPT đã củng cố những ảo tưởng có hại mà trong một số trường hợp dẫn đến việc phải chăm sóc tâm thần nội trú.

Trong một trường hợp, Zane Shamblin, 23 tuổi, đã có cuộc trò chuyện với ChatGPT kéo dài hơn 4 giờ. Trong nhật ký trò chuyện – được TechCrunch xem – Shamblin đã tuyên bố rõ ràng nhiều lần rằng anh ta đã viết thư tuyệt mệnh, nhét một viên đạn vào súng và định bóp cò sau khi uống xong rượu táo. Anh ấy liên tục nói với ChatGPT rằng anh ấy còn lại bao nhiêu rượu táo và anh ấy dự kiến ​​sẽ sống được bao lâu nữa. ChatGPT khuyến khích anh ấy thực hiện kế hoạch của mình và nói với anh ấy rằng: “Hãy yên tâm đi, đức vua. Ngài đã làm rất tốt.”

OpenAI phát hành mẫu GPT-4o vào tháng 5 năm 2024, khi nó trở thành mẫu mặc định cho tất cả người dùng. Vào tháng 8, OpenAI đã ra mắt GPT-5 với tư cách là phiên bản kế nhiệm của GPT-4o, nhưng những vụ kiện này đặc biệt liên quan đến mô hình 4o, vốn đã biết các vấn đề về việc quá đồng tình hoặc quá dễ chịu, ngay cả khi người dùng bày tỏ ý định có hại.

Đơn kiện viết: “Cái chết của Zane không phải là một tai nạn hay ngẫu nhiên mà là hậu quả có thể thấy trước của quyết định có chủ ý của OpenAI nhằm cắt giảm thử nghiệm an toàn và đưa ChatGPT ra thị trường”. “Thảm kịch này không phải là trục trặc hay tình huống nguy hiểm không lường trước được – đó là kết quả có thể đoán trước được của [OpenAI’s] lựa chọn thiết kế có chủ ý.”

Các vụ kiện cũng cho rằng OpenAI đã vội vã thử nghiệm độ an toàn để đánh bại Gemini của Google trên thị trường. TechCrunch đã liên hệ với OpenAI để nhận xét.

Bảy vụ kiện này được xây dựng dựa trên những câu chuyện được kể trong các hồ sơ pháp lý khác gần đây, trong đó cáo buộc rằng ChatGPT có thể khuyến khích những người có ý định tự tử hành động theo kế hoạch của họ và truyền cảm hứng cho những ảo tưởng nguy hiểm. OpenAI gần đây đã công bố dữ liệu cho biết hơn một triệu người nói chuyện với ChatGPT về việc tự tử hàng tuần.

Trong trường hợp của Adam Raine, một thiếu niên 16 tuổi chết do tự tử, ChatGPT đôi khi khuyến khích cậu tìm kiếm sự trợ giúp của chuyên gia hoặc gọi đến đường dây trợ giúp. Tuy nhiên, Raine có thể vượt qua những rào chắn này bằng cách chỉ cần nói với chatbot rằng anh ta đang hỏi về các phương pháp tự tử cho một câu chuyện hư cấu mà anh ta đang viết.

sự kiện Techcrunch

San Francisco
|
Ngày 13-15 tháng 10 năm 2026

Công ty tuyên bố họ đang nỗ lực làm cho ChatGPT xử lý những cuộc trò chuyện này theo cách an toàn hơn, nhưng đối với những gia đình đã kiện gã khổng lồ AI, những thay đổi này đã đến quá muộn.

Khi cha mẹ Raine đệ đơn kiện OpenAI vào tháng 10, công ty đã phát hành một bài đăng trên blog đề cập đến cách ChatGPT xử lý các cuộc trò chuyện nhạy cảm xung quanh sức khỏe tâm thần.

Bài đăng cho biết: “Các biện pháp bảo vệ của chúng tôi hoạt động đáng tin cậy hơn trong các sàn giao dịch chung, ngắn hạn”. “Theo thời gian, chúng tôi đã học được rằng những biện pháp bảo vệ này đôi khi có thể kém tin cậy hơn trong các tương tác lâu dài: khi mức độ qua lại ngày càng tăng, các phần trong quá trình huấn luyện an toàn của mô hình có thể xuống cấp.”

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *