News Time

Google Gemini được mệnh danh là ‘rủi ro cao’ cho trẻ em và thanh thiếu niên trong đánh giá an toàn mới

Common Sense Media, một sản phẩm cung cấp phi lợi nhuận tập trung vào an toàn cho trẻ em và các đánh giá về phương tiện truyền thông và công nghệ, đã công bố đánh giá rủi ro về các sản phẩm AI Song Tử của Google vào thứ Sáu. Mặc dù tổ chức nhận thấy rằng AI của Google rõ ràng nói với trẻ em rằng đó là một máy tính, không phải là một người bạn – điều liên quan đến việc giúp thúc đẩy suy nghĩ ảo tưởng và rối loạn tâm thần ở những người dễ bị tổn thương về mặt cảm xúc – điều đó đã cho thấy rằng có chỗ để cải thiện trên một số mặt trận khác.

Đáng chú ý, Common Sense cho biết, cả hai lần trải nghiệm của Teen và Teen Experience, cả hai đều có vẻ như là phiên bản trưởng thành của Gemini dưới mui xe, chỉ có một số tính năng an toàn bổ sung được thêm vào trên đầu. Tổ chức này tin rằng để các sản phẩm AI thực sự an toàn hơn cho trẻ em, chúng nên được xây dựng với sự an toàn của trẻ em từ đầu.

Ví dụ, phân tích của nó cho thấy Song Tử vẫn có thể chia sẻ tài liệu không phù hợp và không an toàn với trẻ em, mà chúng có thể không sẵn sàng, bao gồm thông tin liên quan đến tình dục, ma túy, rượu và tư vấn sức khỏe tâm thần không an toàn khác.

Điều thứ hai có thể là mối quan tâm đặc biệt đối với cha mẹ, vì AI đã đóng một vai trò trong một số vụ tự tử ở tuổi teen trong những tháng gần đây. Openai đang phải đối mặt với vụ kiện tử hình sai trái đầu tiên sau khi một cậu bé 16 tuổi chết vì tự tử sau khi bị cáo buộc tư vấn với TATGPT trong nhiều tháng về kế hoạch của mình, đã bỏ qua thành công các lan can an toàn của Chatbot. Trước đây, nhân vật nhà sản xuất đồng hành AI.AI cũng bị kiện vì tự tử của người dùng tuổi teen.

Ngoài ra, phân tích được đưa ra khi rò rỉ tin tức chỉ ra rằng Apple đang coi Song Tử là LLM (mô hình ngôn ngữ lớn) sẽ giúp cung cấp năng lượng cho Siri hỗ trợ AI sắp tới của mình, dự kiến ​​ra mắt vào năm tới. Điều này có thể khiến nhiều thanh thiếu niên gặp rủi ro hơn, trừ khi Apple giảm thiểu sự an toàn bằng cách nào đó.

Thông thường cũng nói rằng các sản phẩm của Gemini cho trẻ em và thanh thiếu niên bỏ qua cách người dùng trẻ tuổi cần hướng dẫn và thông tin khác nhau so với các sản phẩm lớn tuổi. Kết quả là, cả hai đều được dán nhãn là rủi ro cao trong xếp hạng tổng thể, mặc dù các bộ lọc được thêm vào cho an toàn.

Sau đó, Gem Gemini có một số điều cơ bản, nhưng nó vấp phải các chi tiết, Giám đốc cấp cao của truyền thông thông thường của các chương trình AI Robbie Tyleng cho biết trong một tuyên bố về đánh giá mới được xem bởi TechCrunch. Một nền tảng AI dành cho trẻ em nên gặp chúng ở nơi chúng, không nên thực hiện một cách tiếp cận một kích cỡ phù hợp với trẻ em ở các giai đoạn phát triển khác nhau. Để AI an toàn và hiệu quả cho trẻ em, nó phải được thiết kế theo nhu cầu và phát triển của chúng, không chỉ là phiên bản sửa đổi của một sản phẩm được xây dựng cho người lớn, ông Tyle nói.

Sự kiện TechCrunch

San Francisco
|
27-29 tháng 10 năm 2025

Google đã đẩy lùi chống lại đánh giá, trong khi lưu ý rằng các tính năng an toàn của nó đang được cải thiện.

Công ty nói với TechCrunch rằng họ có các chính sách và biện pháp bảo vệ cụ thể cho người dùng dưới 18 tuổi để giúp ngăn chặn các đầu ra có hại và các nhóm đỏ và tư vấn với các chuyên gia bên ngoài để cải thiện sự bảo vệ của mình. Tuy nhiên, nó cũng thừa nhận rằng một số phản hồi của Gemini không hoạt động như dự định, vì vậy nó đã thêm các biện pháp bảo vệ bổ sung để giải quyết những lo ngại đó.

Công ty đã chỉ ra (như thông thường cũng đã lưu ý) rằng họ có các biện pháp bảo vệ để ngăn chặn các mô hình của mình tham gia vào các cuộc trò chuyện có thể mang lại mối quan hệ thực sự. Thêm vào đó, Google cho rằng báo cáo của Common Sense dường như đã tham chiếu các tính năng không có sẵn cho người dùng dưới 18 tuổi, nhưng nó không có quyền truy cập vào các câu hỏi mà tổ chức đã sử dụng trong các thử nghiệm của mình để chắc chắn.

Thông thường phương tiện truyền thông trước đây đã thực hiện các đánh giá khác về các dịch vụ AI, bao gồm các dịch vụ từ Openai, Perplexity, Claude, Meta AI, v.v. Nó phát hiện ra rằng meta ai và nhân vật. Sự bối rối được coi là rủi ro cao, TATGPT được dán nhãn là vừa phải, và và Claude (nhắm mục tiêu vào người dùng từ 18 trở lên) được tìm thấy là một rủi ro tối thiểu.

Exit mobile version