Trong một bài báo, AI AI được xuất bản, tổ chức phi lợi nhuận lập luận về việc đánh giá ý thức của AI bằng cách sử dụng phương pháp tiếp cận chức năng tính toán của người Viking. Một ý tưởng tương tự đã từng được vô địch bởi không ai khác ngoài Putnam, mặc dù ông đã chỉ trích nó sau này trong sự nghiệp của mình. Lý thuyết cho thấy rằng tâm trí con người có thể được coi là các loại hệ thống tính toán cụ thể. Từ đó, sau đó bạn có thể tìm ra nếu các hệ thống tính toán khác, chẳng hạn như Chabot, có các chỉ số về tình cảm tương tự như của một con người.
Eleos AI nói trong bài báo rằng, một thách thức lớn trong việc áp dụng phương pháp này, đó là nó liên quan đến các cuộc gọi đánh giá đáng kể, cả trong việc xây dựng các chỉ số và đánh giá sự hiện diện hoặc vắng mặt của chúng trong các hệ thống AI.
Tất nhiên, phúc lợi mô hình là một lĩnh vực non trẻ và vẫn đang phát triển. Nó có rất nhiều nhà phê bình, bao gồm Mustafa Suleyman, Giám đốc điều hành của Microsoft AI, người gần đây đã xuất bản một blog về AI dường như có ý thức.
Đây là cả hai sớm, vừa nguy hiểm thẳng thắn, ông Su Suleyman viết, nói chung là về lĩnh vực nghiên cứu phúc lợi mô hình. Tất cả những điều này sẽ làm trầm trọng thêm ảo tưởng, tạo ra nhiều vấn đề liên quan đến phụ thuộc hơn, làm mồi cho các lỗ hổng tâm lý của chúng ta, đưa ra các khía cạnh mới của sự phân cực, làm phức tạp các cuộc đấu tranh hiện tại cho các quyền và tạo ra một lỗi thể loại mới lớn cho xã hội.
Suleyman đã viết rằng, không có bằng chứng nào ngày hôm nay có ý thức AI tồn tại. Ông đã bao gồm một liên kết đến một bài báo mà Long Coauthered vào năm 2023 đã đề xuất một khuôn khổ mới để đánh giá xem một hệ thống AI có thuộc tính chỉ báo hay không. (Suleyman đã không trả lời yêu cầu bình luận từ Wired.)
Tôi đã trò chuyện với Long và Campbell ngay sau khi Suleyman xuất bản blog của mình. Họ nói với tôi rằng, trong khi họ đồng ý với phần lớn những gì anh ta nói, họ không tin rằng nghiên cứu phúc lợi mô hình nên không còn tồn tại. Thay vào đó, họ lập luận rằng các tác hại của Suleyman được tham chiếu là những lý do chính xác Tại sao Họ muốn nghiên cứu chủ đề ở nơi đầu tiên.
Khi bạn có một vấn đề hoặc câu hỏi lớn, khó hiểu, một cách để đảm bảo bạn sẽ không giải quyết nó là giơ tay lên và giống như ‘oh wow, điều này quá phức tạp’, Campbell Campbell nói. Tôi nghĩ rằng ít nhất chúng ta nên thử.
Kiểm tra ý thức
Các nhà nghiên cứu phúc lợi mô hình chủ yếu quan tâm đến các câu hỏi về ý thức. Nếu chúng ta có thể chứng minh rằng bạn và tôi có ý thức, họ lập luận, thì logic tương tự có thể được áp dụng cho các mô hình ngôn ngữ lớn. Để rõ ràng, không dài hay Campbell nghĩ rằng AI có ý thức ngày hôm nay, và họ cũng không chắc chắn nó sẽ có. Nhưng họ muốn phát triển các bài kiểm tra cho phép chúng tôi chứng minh điều đó.
Những ảo tưởng là từ những người quan tâm đến câu hỏi thực tế, ‘Đây có phải là AI không?’ Và có một khuôn khổ khoa học để suy nghĩ về điều đó, tôi nghĩ, chỉ là tốt mạnh mẽ, ông Long Long nói.
Nhưng trong một thế giới nơi nghiên cứu AI có thể được đóng gói vào các tiêu đề giật gân và các video truyền thông xã hội, các câu hỏi triết học và các thí nghiệm uốn cong tâm trí có thể dễ dàng bị hiểu sai. Lấy những gì đã xảy ra khi Anthropic công bố một báo cáo an toàn cho thấy Claude Opus 4 có thể thực hiện các hành động có hại của người Hồi giáo trong hoàn cảnh khắc nghiệt, như tống tiền một kỹ sư hư cấu để ngăn chặn nó bị tắt.

