Giải đấu dự báo AI đã cố gắng dự đoán năm 2025. Nó không thể.

Hai trong số những người thông minh nhất mà tôi theo dõi trong thế giới AI gần đây đã ngồi xuống để kiểm tra xem lĩnh vực này đang diễn ra như thế nào.

Một người là François Chollet, người tạo ra Thư viện Keras được sử dụng rộng rãi và là tác giả của chuẩn mực ARC-AGI, trong đó kiểm tra xem AI có đạt được về General General hay trí thông minh cấp độ con người hay không. Chollet có tiếng là một con gấu AI, háo hức làm giảm bớt những dự đoán tăng cường và quá lạc quan nhất về nơi công nghệ đang diễn ra. Nhưng trong cuộc thảo luận, Chollet cho biết các mốc thời gian của anh đã trở nên ngắn hơn gần đây. Các nhà nghiên cứu đã đạt được tiến bộ lớn về những gì ông thấy là những trở ngại lớn để đạt được trí thông minh chung nhân tạo, như điểm yếu của người mẫu trong việc nhớ lại và áp dụng những điều họ học được trước đây.

Đăng ký tại đây để khám phá những vấn đề lớn, phức tạp mà thế giới phải đối mặt và những cách hiệu quả nhất để giải quyết chúng. Đã gửi hai lần một tuần.

Người đối thoại của Chollet – Dwarkesh Patel, người có podcast đã trở thành nơi quan trọng nhất để theo dõi những gì các nhà khoa học AI hàng đầu đang nghĩ – đã phản ứng với báo cáo của chính ông, đã di chuyển theo hướng ngược lại. Mặc dù con người rất giỏi học tập liên tục hoặc trong công việc, nhưng Patel Patel đã trở nên bi quan hơn rằng các mô hình AI có thể có được kỹ năng này bất cứ lúc nào sớm.

Phạm vi[Humans are] Học hỏi từ những thất bại của họ. Họ đang chọn những cải tiến nhỏ và hiệu quả khi chúng hoạt động, ông Pat Patel lưu ý. Có vẻ như không có cách nào dễ dàng để đưa khả năng khóa này vào các mô hình này.

Tất cả những điều đó có thể nói, hai người thông minh, rất gắn kết, biết rằng lĩnh vực này cũng như bất kỳ ai khác có thể đi đến những kết luận hoàn toàn hợp lý nhưng mâu thuẫn về tốc độ tiến bộ của AI.

Trong trường hợp đó, làm thế nào một người như tôi, người chắc chắn ít hiểu biết hơn Chollet hoặc Patel, được cho là tìm ra ai đúng?

Cuộc chiến dự báo, ba năm trong

Một trong những cách tiếp cận hứa hẹn nhất mà tôi đã thấy để giải quyết – hoặc ít nhất là xét xử – những bất đồng này đến từ một nhóm nhỏ được gọi là Viện nghiên cứu dự báo.

Vào mùa hè năm 2022, Viện đã bắt đầu những gì họ gọi là Giải đấu Thuyết phục rủi ro hiện sinh (viết tắt là XPT). XPT được dự định để tạo ra các dự báo chất lượng cao về những rủi ro đối với nhân loại trong thế kỷ tới. Để làm điều này, các nhà nghiên cứu (bao gồm cả nhà tâm lý học Penn và dự báo tiên phong Philip Tetlock và người đứng đầu FRI Josh Rosenberg) đã khảo sát các chuyên gia về vấn đề nghiên cứu các mối đe dọa mà ít nhất có thể gây nguy hiểm cho sự sống còn của loài người (như AI) vào mùa hè năm 2022.

Nhưng họ cũng đã hỏi những người siêu âm, một nhóm người được xác định bởi Tetlock và những người khác đã chứng minh chính xác một cách bất thường trong việc dự đoán các sự kiện trong quá khứ. Nhóm SuperForecaster không được tạo thành từ các chuyên gia về các mối đe dọa hiện sinh đối với nhân loại, mà là những nhà tổng quát từ nhiều ngành nghề với các hồ sơ theo dõi dự đoán vững chắc.

Trên mỗi rủi ro, bao gồm AI, có những khoảng trống lớn giữa các chuyên gia cụ thể theo khu vực và các nhà dự báo tổng quát. Các chuyên gia có nhiều khả năng hơn những người nói chung nói rằng rủi ro họ nghiên cứu có thể dẫn đến sự tuyệt chủng của con người hoặc tử vong hàng loạt. Khoảng cách này vẫn tồn tại ngay cả sau khi các nhà nghiên cứu có hai nhóm tham gia vào các cuộc thảo luận có cấu trúc có nghĩa là xác định Tại sao Họ không đồng ý.

Cả hai chỉ có thế giới quan khác nhau. Trong trường hợp của AI, các chuyên gia về chủ đề nghĩ rằng gánh nặng chứng minh nên là những người hoài nghi để cho thấy lý do tại sao một loài kỹ thuật số siêu thông minh sẽ không nguy hiểm. Các nhà tổng quát nghĩ rằng gánh nặng chứng minh nên thuộc về các chuyên gia để giải thích lý do tại sao một công nghệ thậm chí không tồn tại có thể giết chết tất cả chúng ta.

Cho đến nay, thật khó chịu. May mắn cho các nhà quan sát Hoa Kỳ, mỗi nhóm được yêu cầu không chỉ ước tính rủi ro lâu dài trong thế kỷ tới, điều này không thể được xác nhận sớm, mà còn các sự kiện trong tương lai gần hơn. Họ được giao nhiệm vụ cụ thể với việc dự đoán tốc độ của tiến trình AI trong thời gian ngắn, trung bình và dài hạn.

Trong một bài báo mới, các tác giả – Tetlock, Rosenberg, Simas Kučinskas, Rebecca Ceppas de Castro, Zach Jacobs, và Ezra Karger – quay trở lại và đánh giá hai nhóm tốt như thế nào khi dự đoán ba năm của AI tiến bộ kể từ mùa hè năm 2022.

Về lý thuyết, điều này có thể cho chúng ta biết nhóm nào tin. Nếu các chuyên gia AI quan tâm đã chứng minh tốt hơn nhiều trong việc dự đoán điều gì sẽ xảy ra trong khoảng năm 2022202025, có lẽ đó là một dấu hiệu cho thấy họ có cách đọc tốt hơn về tương lai chạy dài hơn của công nghệ, và do đó, chúng ta nên đưa ra cảnh báo của họ sự tin cậy cao hơn.

Than ôi, theo lời của Ralph Fiennes, thì nó sẽ rất đơn giản! Hóa ra kết quả ba năm khiến chúng ta không có ý nghĩa gì về việc ai tin.

Cả các chuyên gia AI và SuperForecasters đều đánh giá thấp tốc độ tiến bộ của AI. Trên bốn điểm chuẩn, hiệu suất thực tế của các mô hình hiện đại vào mùa hè năm 2025 tốt hơn so với các chuyên gia SuperForecasters hoặc AI được dự đoán (mặc dù phần sau gần hơn). Chẳng hạn, SuperForecasters nghĩ rằng AI sẽ nhận được vàng trong Olympic toán học quốc tế vào năm 2035. Các chuyên gia nghĩ rằng năm 2030. Nó đã xảy ra vào mùa hè này.

Nhìn chung, các siêu nhân đã chỉ định xác suất trung bình chỉ 9,7 phần trăm cho các kết quả được quan sát trên bốn điểm chuẩn AI này, báo cáo kết luận, so với 24,6 % từ các chuyên gia miền.

Điều đó làm cho các chuyên gia tên miền trông tốt hơn. Họ đặt nhẹ nhàng Tỷ lệ cược cao hơn cho thấy những gì thực sự xảy ra sẽ xảy ra – nhưng khi họ tìm ra các con số trên tất cả các câu hỏi, các tác giả đã kết luận rằng không có sự khác biệt có ý nghĩa thống kê về độ chính xác tổng hợp giữa các chuyên gia miền và SuperForecasters. Hơn nữa, không có mối tương quan giữa việc ai đó đã chính xác như thế nào trong việc dự kiến ​​năm 2025 và họ nghĩ AI hoặc các rủi ro khác nguy hiểm như thế nào. Dự đoán vẫn khó khăn, đặc biệt là về tương lai và đặc biệt về tương lai của AI.

Thủ thuật duy nhất đáng tin cậy là tổng hợp các dự báo của mọi người – kết hợp tất cả các dự đoán lại với nhau và lấy các dự báo trung bình được tạo ra chính xác hơn bất kỳ một cá nhân hoặc nhóm nào. Chúng ta có thể không biết những người làm dịu nào là thông minh, nhưng đám đông vẫn khôn ngoan.

Có lẽ tôi nên thấy kết quả này đến. Ezra Karger, một nhà kinh tế và đồng tác giả trên cả bài báo XPT ban đầu và cái mới này, đã nói với tôi về bản phát hành của bài báo đầu tiên vào năm 2023 rằng, trong 10 năm tới, thực sự không có nhiều sự bất đồng giữa các nhóm người không đồng ý về những câu hỏi dài hơn. Đó là, họ đã biết rằng dự đoán của mọi người lo lắng về AI và mọi người ít lo lắng là khá giống nhau.

Vì vậy, không nên làm chúng tôi ngạc nhiên quá nhiều rằng một nhóm không tốt hơn đáng kể so với nhóm khác trong việc dự đoán những năm 2022 20222025. Sự bất đồng thực sự không phải là về tương lai ngắn hạn của AI mà là về sự nguy hiểm mà nó gây ra trong phương tiện và dài hạn, vốn đã khó đánh giá và đầu cơ hơn.

Có lẽ, có một số thông tin có giá trị trong thực tế là cả hai nhóm đều đánh giá thấp tốc độ tiến bộ của AI: có lẽ đó là một dấu hiệu cho thấy tất cả chúng ta đều đánh giá thấp công nghệ và nó sẽ tiếp tục cải thiện nhanh hơn dự đoán. Sau đó, một lần nữa, các dự đoán vào năm 2022 đều được đưa ra trước khi phát hành TATGPT vào tháng 11 năm đó. Bạn nhớ ai trước khi triển khai ứng dụng đó dự đoán rằng AI chatbot sẽ trở nên phổ biến trong công việc và trường học? Không phải chúng ta đã biết rằng AI đã tạo ra những bước nhảy vọt về khả năng trong những năm 2022202025? Điều đó có cho chúng ta biết bất cứ điều gì về việc liệu công nghệ có thể không bị chậm lại, mà đến lượt nó, sẽ là chìa khóa để dự báo mối đe dọa lâu dài của nó?

Đọc báo cáo FRI mới nhất, tôi lên một nơi tương tự với đồng nghiệp cũ của tôi, Kelsey Piper năm ngoái. Piper lưu ý rằng việc không ngoại suy các xu hướng, đặc biệt là các xu hướng theo cấp số nhân, trong tương lai đã khiến mọi người lạc lối xấu trong quá khứ. Việc tương đối ít người Mỹ đã có Covid vào tháng 1 năm 2020 không có nghĩa là Covid không phải là mối đe dọa; Điều đó có nghĩa là đất nước đang bắt đầu một đường cong tăng trưởng theo cấp số nhân. Một loại thất bại tương tự sẽ dẫn người ta đánh giá thấp tiến trình AI và, với nó, bất kỳ rủi ro hiện sinh tiềm tàng nào.

Đồng thời, trong hầu hết các bối cảnh, sự tăng trưởng theo cấp số nhân không thể diễn ra mãi mãi; Nó tối đa tại một số điểm. Điều đáng chú ý là, luật của Moore đã dự đoán rộng rãi sự tăng trưởng về mật độ bộ vi xử lý một cách chính xác trong nhiều thập kỷ-nhưng luật của Moore nổi tiếng một phần vì nó không bình thường đối với các xu hướng về các công nghệ do con người tạo ra để làm sạch một mô hình.

Tôi ngày càng tin rằng không có sự thay thế nào cho việc đào sâu vào cỏ dại khi bạn đang xem xét những câu hỏi này, ông Pip Piper kết luận. Trong khi có những câu hỏi, chúng tôi có thể trả lời từ các nguyên tắc đầu tiên, [AI progress] không phải là một trong số họ.

Tôi sợ cô ấy đúng – và điều đó, tệ hơn, sự bảo vệ đơn thuần đối với các chuyên gia cũng không đủ, không phải khi các chuyên gia không đồng ý với nhau về cả chi tiết cụ thể và quỹ đạo rộng. Chúng tôi không thực sự có một sự thay thế tốt để cố gắng học hỏi nhiều nhất có thể như các cá nhân và, thất bại, chờ đợi và nhìn thấy. Đó không phải là một kết luận thỏa mãn cho một bản tin – hoặc một câu trả lời an ủi cho một trong những câu hỏi quan trọng nhất mà nhân loại phải đối mặt – nhưng đó là điều tốt nhất tôi có thể làm.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *