News Time

Tại sao cựu trưởng nhóm nghiên cứu AI của Cohere lại đặt cược vào cuộc đua mở rộng quy mô

Các phòng thí nghiệm AI đang chạy đua xây dựng các trung tâm dữ liệu lớn như Manhattan, mỗi trung tâm tiêu tốn hàng tỷ USD và tiêu thụ nhiều năng lượng như một thành phố nhỏ. Nỗ lực này được thúc đẩy bởi niềm tin sâu sắc vào khả năng “mở rộng quy mô” – ý tưởng rằng việc bổ sung thêm sức mạnh tính toán cho các phương pháp đào tạo AI hiện tại cuối cùng sẽ tạo ra các hệ thống siêu thông minh có khả năng thực hiện mọi loại nhiệm vụ.

Nhưng ngày càng có nhiều nhà nghiên cứu AI nói rằng việc mở rộng quy mô của các mô hình ngôn ngữ lớn có thể đã đạt đến giới hạn và có thể cần có những đột phá khác để cải thiện hiệu suất của AI.

Đó là sự đặt cược mà Sara Hooker, cựu Phó Giám đốc Nghiên cứu AI của Cohere và cựu sinh viên Google Brain, đang thực hiện với công ty khởi nghiệp mới của mình, Adaption Labs. Cô đồng sáng lập công ty cùng với đồng nghiệp kỳ cựu của Cohere và Google, Sudip Roy, và công ty được xây dựng dựa trên ý tưởng rằng việc mở rộng quy mô LLM đã trở thành một cách không hiệu quả để đạt được hiệu suất cao hơn từ các mô hình AI. Hooker, người đã rời Cohere vào tháng 8, đã lặng lẽ tuyên bố khởi nghiệp trong tháng này để bắt đầu tuyển dụng rộng rãi hơn.

Trong một cuộc phỏng vấn với TechCrunch, Hooker cho biết Adaption Labs đang xây dựng các hệ thống AI có thể liên tục thích ứng và học hỏi từ trải nghiệm thực tế của họ và làm việc đó cực kỳ hiệu quả. Cô từ chối chia sẻ thông tin chi tiết về các phương pháp đằng sau phương pháp này hoặc liệu công ty có dựa vào LLM hay kiến ​​trúc khác hay không.

Hooker cho biết: “Bây giờ có một bước ngoặt khi rõ ràng rằng công thức chỉ mở rộng quy mô các mô hình này – các phương pháp tiếp cận theo tỷ lệ, rất hấp dẫn nhưng cực kỳ nhàm chán – đã không tạo ra trí thông minh có thể điều hướng hoặc tương tác với thế giới”.

Theo Hooker, thích ứng là “trái tim của việc học”. Ví dụ, bạn bị vấp ngón chân khi đi ngang qua bàn ăn và lần sau bạn sẽ học cách bước cẩn thận hơn khi đi ngang qua bàn ăn. Các phòng thí nghiệm AI đã cố gắng nắm bắt ý tưởng này thông qua học tăng cường (RL), cho phép các mô hình AI học hỏi từ những sai lầm của chúng trong cài đặt được kiểm soát. Tuy nhiên, các phương pháp RL ngày nay không giúp các mô hình AI trong sản xuất – nghĩa là các hệ thống đã được khách hàng sử dụng – học hỏi từ những sai lầm của họ trong thời gian thực. Họ cứ bị vấp ngón chân.

Một số phòng thí nghiệm AI cung cấp dịch vụ tư vấn để giúp các doanh nghiệp tinh chỉnh mô hình AI theo nhu cầu tùy chỉnh của họ, nhưng nó có giá phải trả. OpenAI được cho là yêu cầu khách hàng chi tới 10 triệu USD với công ty để cung cấp dịch vụ tư vấn về tinh chỉnh.

sự kiện Techcrunch

San Francisco
|
Ngày 27-29 tháng 10 năm 2025

Hooker cho biết: “Chúng tôi có một số phòng thí nghiệm biên giới xác định bộ mô hình AI này được phục vụ theo cách giống nhau cho mọi người và việc điều chỉnh chúng rất tốn kém”. “Và trên thực tế, tôi nghĩ điều đó không còn đúng nữa và các hệ thống AI có thể học hỏi rất hiệu quả từ một môi trường. Việc chứng minh điều đó sẽ thay đổi hoàn toàn động lực của ai sẽ kiểm soát và định hình AI, và thực sự là những mô hình này phục vụ ai vào cuối ngày.”

Phòng thí nghiệm thích ứng là dấu hiệu mới nhất cho thấy niềm tin của ngành vào việc mở rộng LLM đang dao động. Một bài báo gần đây của các nhà nghiên cứu MIT phát hiện ra rằng các mô hình AI lớn nhất thế giới có thể sớm cho thấy lợi nhuận giảm dần. Những rung cảm ở San Francisco dường như cũng đang thay đổi. Podcast được yêu thích của thế giới AI, Dwarkesh Patel, gần đây đã tổ chức một số cuộc trò chuyện mang tính hoài nghi bất thường với các nhà nghiên cứu AI nổi tiếng.

Richard Sutton, người đoạt giải Turing được coi là “cha đẻ của RL,” đã nói với Patel vào tháng 9 rằng LLM không thể thực sự mở rộng quy mô vì chúng không học hỏi từ kinh nghiệm thực tế. Trong tháng này, nhân viên đầu tiên của OpenAI, Andrej Karpathy nói với Patel rằng anh ấy dè dặt về tiềm năng lâu dài của RL trong việc cải thiện các mô hình AI.

Những nỗi sợ hãi kiểu này không phải là chưa từng có. Vào cuối năm 2024, một số nhà nghiên cứu AI đã nêu lên mối lo ngại rằng việc mở rộng quy mô các mô hình AI thông qua quá trình đào tạo trước — trong đó các mô hình AI học các mẫu từ hàng đống tập dữ liệu — đang mang lại lợi nhuận giảm dần. Cho đến thời điểm đó, đào tạo trước là giải pháp bí mật để OpenAI và Google cải thiện mô hình của họ.

Những lo ngại về quy mô đào tạo trước đó hiện đang hiển thị trong dữ liệu, nhưng ngành công nghiệp AI đã tìm ra những cách khác để cải thiện mô hình. Vào năm 2025, những đột phá xung quanh các mô hình suy luận AI, vốn cần thêm thời gian và nguồn lực tính toán để giải quyết các vấn đề trước khi trả lời, đã đẩy khả năng của các mô hình AI hơn nữa.

Các phòng thí nghiệm AI dường như bị thuyết phục rằng việc mở rộng quy mô các mô hình lý luận RL và AI là biên giới mới. Các nhà nghiên cứu OpenAI trước đây đã nói với TechCrunch rằng họ đã phát triển mô hình suy luận AI đầu tiên của mình, o1, vì họ nghĩ rằng nó sẽ có khả năng mở rộng quy mô tốt. Các nhà nghiên cứu của Meta và Periodic Labs gần đây đã phát hành một bài báo khám phá cách RL có thể mở rộng hiệu suất hơn nữa – một nghiên cứu được cho là tiêu tốn hơn 4 triệu đô la, nhấn mạnh mức độ đắt đỏ của các phương pháp tiếp cận hiện tại.

Ngược lại, Adaption Labs nhằm mục đích tìm ra bước đột phá tiếp theo và chứng minh rằng việc học hỏi từ kinh nghiệm có thể rẻ hơn nhiều. Theo ba nhà đầu tư đã xem xét hồ sơ chào hàng của mình, công ty khởi nghiệp này đang đàm phán để huy động vốn từ vòng hạt giống trị giá 20 triệu đến 40 triệu USD vào đầu mùa thu này. Họ nói rằng vòng đấu đã kết thúc, mặc dù số tiền cuối cùng vẫn chưa rõ ràng. Hooker từ chối bình luận.

Hooker cho biết khi được hỏi về các nhà đầu tư của mình: “Chúng tôi được thành lập để có nhiều tham vọng.

Hooker trước đây đã lãnh đạo Cohere Labs, nơi cô đào tạo các mô hình AI nhỏ cho các trường hợp sử dụng của doanh nghiệp. Các hệ thống AI nhỏ gọn hiện thường xuyên vượt trội hơn các hệ thống lớn hơn về các điểm chuẩn về mã hóa, toán học và lý luận — một xu hướng mà Hooker muốn tiếp tục phát triển.

Cô cũng tạo dựng được danh tiếng trong việc mở rộng khả năng tiếp cận nghiên cứu AI trên toàn cầu, tuyển dụng nhân tài nghiên cứu từ các khu vực ít được đại diện như Châu Phi. Trong khi Adaption Labs sẽ sớm mở văn phòng ở San Francisco, Hooker cho biết cô có kế hoạch tuyển dụng trên toàn thế giới.

Nếu Hooker và Adaption Labs đúng về những hạn chế của việc mở rộng quy mô, thì tác động có thể rất lớn. Hàng tỷ USD đã được đầu tư vào việc mở rộng quy mô LLM, với giả định rằng các mô hình lớn hơn sẽ dẫn đến trí thông minh chung. Nhưng có thể việc học tập thích ứng thực sự không chỉ mạnh mẽ hơn mà còn hiệu quả hơn nhiều.

Marina Temkin đóng góp báo cáo.

Exit mobile version