Hôm thứ Hai, Anthropic đã công bố một sự chứng thực chính thức của SB 53, một dự luật ở California từ Thượng nghị sĩ bang Scott Wiener sẽ áp đặt các yêu cầu minh bạch đầu tiên của quốc gia đối với các nhà phát triển mô hình AI lớn nhất thế giới. Sự chứng thực của Anthropic đánh dấu một chiến thắng hiếm hoi và lớn cho SB 53, tại thời điểm các nhóm công nghệ lớn như Hiệp hội Công nghệ tiêu dùng (CTA) và Phòng để tiến bộ đang vận động hành lang chống lại dự luật.
Mặc dù chúng tôi tin rằng sự an toàn của Frontier AI được giải quyết tốt nhất ở cấp liên bang thay vì một sự chắp vá của các quy định của nhà nước, những tiến bộ mạnh mẽ của AI sẽ không chờ đợi sự đồng thuận ở Washington, ông đã nói trong một bài đăng trên blog. Câu hỏi không phải là liệu chúng ta có cần quản trị AI hay không – đó là liệu chúng ta sẽ phát triển nó một cách chu đáo ngày hôm nay hay phản ứng vào ngày mai. SB 53 cung cấp một con đường vững chắc đối với trước đây.
Nếu được thông qua, SB 53 sẽ yêu cầu các nhà phát triển mô hình Frontier AI như Openai, Anthropic, Google và XAI phát triển các khung an toàn, cũng như phát hành các báo cáo an toàn và bảo mật công cộng trước khi triển khai các mô hình AI mạnh mẽ. Dự luật cũng sẽ thiết lập các biện pháp bảo vệ người thổi còi cho các nhân viên đưa ra những lo ngại về an toàn.
Dự luật của Thượng nghị sĩ Wiener đặc biệt tập trung vào việc hạn chế các mô hình AI đóng góp vào các rủi ro thảm khốc, mà dự luật định nghĩa là cái chết của ít nhất 50 người hoặc hơn một tỷ đô la. SB 53 tập trung vào khía cạnh cực đoan của rủi ro AI-hạn chế các mô hình AI được sử dụng để cung cấp hỗ trợ cấp độ chuyên gia trong việc tạo ra vũ khí sinh học hoặc được sử dụng trong các cuộc tấn công mạng-thay vì các mối quan tâm ngắn hạn hơn như AI Deepfakes hoặc Sycophancy.
Thượng viện của California đã phê duyệt phiên bản SB 53 trước đó nhưng vẫn cần phải giữ một cuộc bỏ phiếu cuối cùng cho dự luật trước khi có thể tiến lên bàn của thống đốc. Thống đốc Gavin Newsom đã giữ im lặng với dự luật cho đến nay, mặc dù ông đã phủ quyết dự luật an toàn AI cuối cùng của Thượng nghị sĩ Weiner, SB 1047.
Các dự luật điều chỉnh các nhà phát triển mô hình AI Frontier AI đã phải đối mặt với sự đẩy lùi đáng kể từ cả Thung lũng Silicon và chính quyền Trump, cả hai đều cho rằng những nỗ lực đó có thể hạn chế sự đổi mới của Mỹ trong cuộc đua chống lại Trung Quốc. Các nhà đầu tư như Andreessen Horowitz và Y Combinator đã dẫn đầu một số phản hồi chống lại SB 1047, và trong những tháng gần đây, chính quyền Trump đã nhiều lần đe dọa sẽ ngăn chặn các quốc gia thông qua quy định của AI hoàn toàn.
Một trong những lập luận phổ biến nhất chống lại các dự luật an toàn AI là các quốc gia nên để lại vấn đề cho các chính phủ liên bang. Người đứng đầu chính sách AI của Andreessen Horowitz, Matt Perault, và giám đốc pháp lý, Jai Ramaswamy, đã công bố một bài đăng trên blog vào tuần trước cho rằng nhiều dự luật AI của tiểu bang ngày nay có nguy cơ vi phạm Điều khoản thương mại của Hiến pháp – giới hạn chính phủ của tiểu bang không vượt ra khỏi các quy tắc của họ.
Sự kiện TechCrunch
San Francisco
|
27-29 tháng 10 năm 2025
Tuy nhiên, Jack Clark, đồng sáng lập nhân chủng học lập luận trong một bài viết về X rằng ngành công nghiệp công nghệ sẽ xây dựng các hệ thống AI mạnh mẽ trong những năm tới và không thể chờ đợi chính phủ liên bang hành động.
Chúng tôi đã nói từ lâu chúng tôi sẽ thích một tiêu chuẩn liên bang, ông Clark nói. Tuy nhiên, trong trường hợp không có điều này tạo ra một bản thiết kế vững chắc cho quản trị AI không thể bỏ qua.
Giám đốc điều hành toàn cầu của Openai, Chris Lehane, đã gửi một lá thư cho Thống đốc Newsom vào tháng 8 cho rằng ông không nên thông qua bất kỳ quy định AI nào sẽ đẩy các công ty khởi nghiệp ra khỏi California – mặc dù bức thư không đề cập đến SB 53 theo tên.
Người đứng đầu nghiên cứu chính sách cũ của Openai, Miles Brundage, cho biết trong một bài đăng trên X rằng lá thư của Lehane đã chứa đầy rác rưởi về chính sách SB 53 và AI nói chung. Đáng chú ý, SB 53 nhằm mục đích chỉ điều chỉnh các công ty AI lớn nhất thế giới – đặc biệt là các công ty tạo ra tổng doanh thu hơn 500 triệu đô la.
Bất chấp những lời chỉ trích, các chuyên gia chính sách cho biết SB 53 là một cách tiếp cận khiêm tốn hơn các hóa đơn an toàn AI trước đây. Dean Ball, một thành viên cao cấp tại Tổ chức Đổi mới Hoa Kỳ và cựu cố vấn chính sách của Nhà Trắng, cho biết trong một bài đăng trên blog tháng 8 rằng ông tin rằng SB 53 có cơ hội tốt để trở thành luật. Ball, người chỉ trích SB 1047, cho biết những người soạn thảo của SB 53 đã thể hiện sự tôn trọng đối với thực tế kỹ thuật, cũng như một thước đo về sự kiềm chế lập pháp.
Thượng nghị sĩ Wiener trước đây nói rằng SB 53 bị ảnh hưởng nặng nề bởi một Thống đốc chính sách chuyên môn Newsom được triệu tập-đồng lãnh đạo bởi nhà nghiên cứu hàng đầu của Stanford và đồng sáng lập của World Labs, Fei-Fei Li-để tư vấn cho California về cách điều chỉnh AI.
Hầu hết các phòng thí nghiệm AI đã có một số phiên bản của chính sách an toàn nội bộ mà SB 53 yêu cầu. Openai, Google DeepMind và Anthropic thường xuyên xuất bản các báo cáo an toàn cho các mô hình của họ. Tuy nhiên, các công ty này không bị ràng buộc bởi bất kỳ ai ngoài chính họ, vì vậy đôi khi họ tụt hậu so với các cam kết an toàn tự áp đặt của họ. SB 53 nhằm đặt ra các yêu cầu này là luật tiểu bang, với hậu quả tài chính nếu một phòng thí nghiệm AI không tuân thủ.
Trước đó vào tháng 9, các nhà lập pháp California đã sửa đổi SB 53 để loại bỏ một phần của dự luật yêu cầu các nhà phát triển mô hình AI phải được kiểm toán bởi các bên thứ ba. Các công ty công nghệ trước đây đã chiến đấu với các loại kiểm toán của bên thứ ba trong các cuộc chiến chính sách AI khác, cho rằng họ quá nặng nề.

