Openai đang cho cha mẹ quyền kiểm soát nhiều hơn về cách con cái họ sử dụng chatgpt. Kiểm soát mới của cha mẹ đến vào thời điểm quan trọng, vì nhiều gia đình, trường học và nhóm vận động nói lên mối quan tâm của họ về vai trò nguy hiểm tiềm tàng AI Chatbots có thể đóng vai trò trong sự phát triển của thanh thiếu niên và trẻ em.
Phụ huynh sẽ phải liên kết tài khoản Chatgpt của riêng họ với con của họ để truy cập các tính năng mới. Tuy nhiên, Openai nói rằng các tính năng này không cho phép phụ huynh truy cập vào các cuộc trò chuyện của con họ với TATGPT và trong trường hợp công ty xác định “rủi ro an toàn nghiêm trọng”, cha mẹ sẽ được cảnh báo “chỉ với thông tin cần thiết để hỗ trợ sự an toàn của thanh thiếu niên.”
Đó là một “hệ thống thông báo an toàn đầu tiên để cảnh báo cha mẹ nếu thiếu niên của họ có thể có nguy cơ tự làm hại mình”, Lauren Haber Jonas, người đứng đầu về sức khỏe của thanh thiếu niên của Openai, trong một bài đăng của LinkedIn cho biết.
Khi các tài khoản được liên kết, phụ huynh có thể đặt giờ yên tĩnh khi bọn trẻ không thể sử dụng TATGPT, cũng như tắt các khả năng tạo hình ảnh và chế độ giọng nói. Về mặt kỹ thuật, phụ huynh cũng có thể chọn con cái họ ra khỏi đào tạo nội dung và chọn để Chatgpt không tiết kiệm hoặc nhớ các cuộc trò chuyện trước đó của con cái họ. Cha mẹ cũng có thể chọn để giảm nội dung nhạy cảm, cho phép các hạn chế nội dung bổ sung xung quanh những thứ như nội dung đồ họa. Thanh thiếu niên có thể hủy liên kết tài khoản của họ khỏi cha mẹ, nhưng cha mẹ sẽ được thông báo nếu điều đó xảy ra.
Công ty mẹ của TATGPT đã công bố vào tháng trước rằng họ sẽ giới thiệu nhiều kiểm soát của cha mẹ sau vụ kiện mà một gia đình California đã đệ trình chống lại nó. Gia đình đang cáo buộc AI Chatbot chịu trách nhiệm cho vụ tự tử của con trai 16 tuổi vào đầu năm nay, gọi Chatgpt của anh ta là “huấn luyện viên tự sát”. Một số lượng người dùng AI tăng lên có các chatbot AI của họ đảm nhận vai trò của một nhà trị liệu hoặc tâm sự. Các nhà trị liệu và các chuyên gia về sức khỏe tâm thần đã bày tỏ mối quan tâm về điều này, nói rằng AI giống như Chatgpt không được đào tạo để đánh giá, cờ và can thiệp chính xác khi gặp ngôn ngữ và hành vi cờ đỏ.
.
Nếu bạn cảm thấy như bạn hoặc ai đó bạn biết đang gặp nguy hiểm ngay lập tức, hãy gọi 911 (hoặc đường dây khẩn cấp địa phương của đất nước bạn) hoặc đến phòng cấp cứu để được giúp đỡ ngay lập tức. Giải thích rằng đó là một trường hợp khẩn cấp tâm thần và yêu cầu một người được đào tạo cho các loại tình huống này. Nếu bạn đang vật lộn với những suy nghĩ tiêu cực hoặc cảm giác tự tử, tài nguyên có sẵn để giúp đỡ. Ở Mỹ, hãy gọi Lifeline phòng chống tự tử quốc gia vào năm 988.

