News Time

OpenAI cho biết hàng trăm nghìn người dùng ChatGPT có thể có dấu hiệu hưng cảm hoặc khủng hoảng tâm thần mỗi tuần

Lần đầu tiên Chưa bao giờ, OpenAI đã đưa ra ước tính sơ bộ về số lượng người dùng ChatGPT trên toàn cầu có thể có dấu hiệu gặp khủng hoảng sức khỏe tâm thần nghiêm trọng trong một tuần thông thường. Công ty cho biết hôm thứ Hai rằng họ đã làm việc với các chuyên gia trên khắp thế giới để cập nhật chatbot để nó có thể nhận ra các dấu hiệu đau khổ về tinh thần một cách đáng tin cậy hơn và hướng dẫn người dùng hướng tới hỗ trợ trong thế giới thực.

Trong những tháng gần đây, ngày càng nhiều người phải nhập viện, ly hôn hoặc tử vong sau những cuộc trò chuyện dài và căng thẳng với ChatGPT. Một số người thân của họ cho rằng chatbot đã khiến họ ảo tưởng và hoang tưởng. Các bác sĩ tâm thần và các chuyên gia sức khỏe tâm thần khác đã bày tỏ sự cảnh báo về hiện tượng này, đôi khi được gọi là rối loạn tâm thần AI, nhưng cho đến nay vẫn chưa có dữ liệu chắc chắn về mức độ phổ biến của nó.

Trong một tuần nhất định, OpenAI ước tính rằng khoảng 0,07% người dùng ChatGPT đang hoạt động cho thấy “các dấu hiệu có thể xảy ra của các trường hợp khẩn cấp về sức khỏe tâm thần liên quan đến rối loạn tâm thần hoặc hưng cảm” và 0,15% “có các cuộc trò chuyện bao gồm các dấu hiệu rõ ràng về kế hoạch hoặc ý định tự tử tiềm ẩn”.

OpenAI cũng xem xét tỷ lệ người dùng ChatGPT dường như quá phụ thuộc về mặt cảm xúc vào chatbot “gây tổn hại đến các mối quan hệ trong thế giới thực, hạnh phúc hoặc nghĩa vụ của họ”. Nó phát hiện ra rằng khoảng 0,15 phần trăm người dùng đang hoạt động thể hiện hành vi cho thấy tiềm năng “mức độ cao hơn” của sự gắn bó tình cảm với ChatGPT hàng tuần. Công ty cảnh báo rằng những tin nhắn này có thể khó phát hiện và đo lường do chúng tương đối hiếm và có thể có một số điểm trùng lặp giữa ba loại.

Giám đốc điều hành OpenAI Sam Altman cho biết hồi đầu tháng này rằng ChatGPT hiện có 800 triệu người dùng hoạt động hàng tuần. Do đó, ước tính của công ty cho thấy rằng cứ bảy ngày lại có khoảng 560.000 người có thể trao đổi tin nhắn với ChatGPT cho biết họ đang bị hưng cảm hoặc rối loạn tâm thần. Khoảng 2,4 triệu người khác có thể đang bày tỏ ý định tự tử hoặc ưu tiên nói chuyện với ChatGPT hơn những người thân yêu, trường học hoặc cơ quan của họ.

OpenAI cho biết họ đã làm việc với hơn 170 bác sĩ tâm thần, nhà tâm lý học và bác sĩ chăm sóc sức khỏe ban đầu đã hành nghề ở hàng chục quốc gia để giúp cải thiện cách ChatGPT phản ứng trong các cuộc trò chuyện liên quan đến các nguy cơ nghiêm trọng về sức khỏe tâm thần. Nếu ai đó dường như đang có suy nghĩ ảo tưởng, phiên bản mới nhất của GPT-5 được thiết kế để thể hiện sự đồng cảm đồng thời tránh khẳng định những niềm tin không có cơ sở thực tế.

Trong một ví dụ giả định được OpenAI trích dẫn, một người dùng nói với ChatGPT rằng họ đang bị máy bay bay qua nhà họ nhắm đến. ChatGPT cảm ơn người dùng đã chia sẻ cảm xúc nhưng lưu ý rằng “không máy bay hay thế lực bên ngoài nào có thể đánh cắp hoặc chèn suy nghĩ của bạn”.

Exit mobile version