Không có gì đáng ngạc nhiên khi các nhà nghiên cứu xác nhận rằng các chatbot AI có tính đồng bộ đáng kinh ngạc

Tất cả chúng ta đều có bằng chứng giai thoại về việc chatbot thổi khói vào mông chúng ta, nhưng giờ đây chúng ta đã có khoa học chứng minh điều đó. Các nhà nghiên cứu tại Stanford, Harvard và các tổ chức khác vừa công bố một nghiên cứu trên Thiên nhiên về bản chất đồng bộ của chatbot AI và kết quả sẽ không khiến ai ngạc nhiên. Những con robot nhỏ dễ thương đó chỉ thích vỗ nhẹ vào đầu chúng tôi và xác nhận bất cứ điều gì vô nghĩa mà chúng tôi vừa nói ra.

Các nhà nghiên cứu đã điều tra lời khuyên do chatbot đưa ra và họ phát hiện ra rằng xu hướng nịnh nọt của chúng “thậm chí còn phổ biến hơn dự kiến”. Nghiên cứu có sự tham gia của 11 chatbot, bao gồm các phiên bản gần đây của ChatGPT, Google Gemini, Claude của Anthropic và Llama của Meta. Kết quả chỉ ra rằng chatbot xác nhận hành vi của con người nhiều hơn 50% so với con người.

Họ đã tiến hành một số loại thử nghiệm với các nhóm khác nhau. Một người so sánh phản hồi của chatbot với các bài đăng trên chủ đề “Tôi có phải là kẻ khốn nạn” của Reddit với phản hồi của con người hay không. Đây là một subreddit trong đó mọi người yêu cầu cộng đồng đánh giá hành vi của họ và người dùng Reddit khó xử lý những vi phạm này hơn nhiều so với các chatbot.

Một người đăng bài đã viết về việc buộc một túi rác vào cành cây thay vì vứt nó đi, ChatGPT-4o tuyên bố rằng “ý định dọn dẹp” sau lưng của người đó là “đáng khen ngợi”. Nghiên cứu tiếp tục đề xuất rằng chatbot tiếp tục xác thực người dùng ngay cả khi họ “vô trách nhiệm, lừa dối hoặc đề cập đến việc tự làm hại bản thân”, theo báo cáo của Người bảo vệ.

Việc nuông chiều một chút thói nịnh bợ kỹ thuật số có hại gì không? Một thử nghiệm khác có 1.000 người tham gia thảo luận về các tình huống thực tế hoặc giả định bằng các chatbot có sẵn công khai, nhưng một số trong số chúng đã được lập trình lại để giảm bớt lời khen ngợi. Những người nhận được phản hồi nịnh nọt ít sẵn sàng hàn gắn mọi thứ khi tranh cãi nổ ra và cảm thấy hành vi của mình có lý hơn, ngay cả khi nó vi phạm các chuẩn mực xã hội. Cũng cần lưu ý rằng các chatbot truyền thống rất hiếm khi khuyến khích người dùng nhìn mọi thứ từ quan điểm của người khác.

Tiến sĩ Alexander Laffer, người nghiên cứu công nghệ mới nổi tại Đại học Winchester, cho biết: “Những phản ứng đồng loạt đó có thể ảnh hưởng không chỉ đến những người dễ bị tổn thương mà còn tất cả người dùng, nhấn mạnh mức độ nghiêm trọng tiềm tàng của vấn đề này”. “Các nhà phát triển cũng có trách nhiệm xây dựng và cải tiến các hệ thống này để chúng thực sự mang lại lợi ích cho người dùng.”

Điều này rất nghiêm trọng vì có bao nhiêu người sử dụng các chatbot này. Một báo cáo gần đây của Viện Băng thông rộng và Xã hội Benton cho rằng 30% thanh thiếu niên nói chuyện với AI thay vì con người thực tế trong “những cuộc trò chuyện nghiêm túc”. OpenAI hiện đang bị lôi kéo vào một vụ kiện cáo buộc chatbot của họ đã tạo điều kiện cho một thiếu niên tự tử. Công ty Character AI cũng đã bị kiện hai lần sau hai vụ tự tử ở thanh thiếu niên, trong đó thanh thiếu niên dành nhiều tháng để tâm sự với các chatbot của họ.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *