Các nhà lãnh đạo ở Thung lũng Silicon bao gồm Nhà Trắng AI & Vua tiền điện tử David Sacks và Giám đốc chiến lược OpenAI Jason Kwon đã gây xôn xao mạng trong tuần này vì nhận xét của họ về các nhóm thúc đẩy sự an toàn của AI. Trong các trường hợp riêng biệt, họ cáo buộc rằng một số người ủng hộ sự an toàn của AI không có đạo đức như họ thể hiện và đang hành động vì lợi ích của chính họ hoặc những bậc thầy bù nhìn tỷ phú ở hậu trường.
Các nhóm an toàn AI đã nói chuyện với TechCrunch cho biết các cáo buộc từ Sacks và OpenAI là nỗ lực mới nhất của Thung lũng Silicon nhằm đe dọa những người chỉ trích họ, nhưng chắc chắn không phải là lần đầu tiên. Vào năm 2024, một số công ty đầu tư mạo hiểm tung tin đồn rằng dự luật an toàn AI của California, SB 1047, sẽ khiến những người sáng lập công ty khởi nghiệp phải vào tù. Viện Brookings cho rằng tin đồn này là một trong nhiều “sự xuyên tạc” về dự luật, nhưng Thống đốc Gavin Newsom cuối cùng vẫn phủ quyết nó.
Cho dù Sacks và OpenAI có ý định đe dọa những người chỉ trích hay không, hành động của họ đã đủ khiến một số người ủng hộ an toàn AI sợ hãi. Nhiều nhà lãnh đạo tổ chức phi lợi nhuận mà TechCrunch đã liên hệ trong tuần trước đã yêu cầu phát biểu với điều kiện giấu tên để tránh cho nhóm của họ khỏi bị trả thù.
Cuộc tranh cãi nhấn mạnh sự căng thẳng ngày càng tăng của Thung lũng Silicon giữa việc xây dựng AI một cách có trách nhiệm và xây dựng nó trở thành một sản phẩm tiêu dùng đại chúng – một chủ đề mà các đồng nghiệp của tôi là Kirsten Korosec, Anthony Ha và tôi sẽ giải thích trong tuần này. Công bằng podcast. Chúng tôi cũng đi sâu vào luật an toàn AI mới được thông qua ở California để quản lý các chatbot và cách tiếp cận của OpenAI đối với nội dung khiêu dâm trong ChatGPT.
Vào thứ Ba, Sacks đã viết một bài đăng trên X cáo buộc rằng Anthropic – công ty đã gây lo ngại về khả năng AI góp phần gây ra tình trạng thất nghiệp, tấn công mạng và những tác hại thảm khốc cho xã hội – chỉ đơn giản là gây sợ hãi để thông qua các luật sẽ mang lại lợi ích cho chính nó và nhấn chìm các công ty khởi nghiệp nhỏ hơn trong thủ tục giấy tờ. Anthropic là phòng thí nghiệm AI lớn duy nhất tán thành Dự luật 53 (SB 53) của Thượng viện California, dự luật đặt ra các yêu cầu báo cáo an toàn cho các công ty AI lớn, được ký thành luật vào tháng trước.
Sacks đang phản hồi một bài luận lan truyền từ người đồng sáng lập Anthropic Jack Clark về nỗi sợ hãi của anh ấy đối với AI. Clark đã gửi bài luận này dưới dạng bài phát biểu tại hội nghị an toàn Curve AI ở Berkeley vài tuần trước đó. Ngồi trước khán giả, chắc chắn đây có cảm giác giống như một câu chuyện chân thực về sự dè dặt của một nhà công nghệ đối với sản phẩm của mình, nhưng Sacks không nhìn nhận như vậy.
Sacks cho biết Anthropic đang thực hiện một “chiến lược nắm bắt quy định phức tạp”, mặc dù cần lưu ý rằng một chiến lược thực sự phức tạp có thể sẽ không liên quan đến việc tạo ra kẻ thù từ chính phủ liên bang. Trong một bài đăng tiếp theo trên X, Sacks lưu ý rằng Anthropic đã “luôn coi mình là kẻ thù của chính quyền Trump”.
sự kiện Techcrunch
San Francisco
|
Ngày 27-29 tháng 10 năm 2025
Cũng trong tuần này, giám đốc chiến lược của OpenAI, Jason Kwon, đã viết một bài đăng trên X giải thích lý do tại sao công ty gửi trát đòi hầu tòa cho các tổ chức phi lợi nhuận về an toàn AI, chẳng hạn như Encode, một tổ chức phi lợi nhuận ủng hộ chính sách AI có trách nhiệm. (Trát hầu tòa là một lệnh pháp lý yêu cầu cung cấp tài liệu hoặc lời khai.) Kwon nói rằng sau khi Elon Musk kiện OpenAI – vì lo ngại rằng nhà sản xuất ChatGPT đã từ bỏ sứ mệnh phi lợi nhuận của mình – OpenAI nhận thấy nghi ngờ về việc một số tổ chức cũng phản đối việc tái cơ cấu của nó. Encode đã gửi một bản tóm tắt amicus để ủng hộ vụ kiện của Musk và các tổ chức phi lợi nhuận khác đã lên tiếng công khai phản đối việc tái cơ cấu của OpenAI.
Kwon nói: “Điều này đặt ra câu hỏi về tính minh bạch về ai đã tài trợ cho họ và liệu có bất kỳ sự phối hợp nào hay không”.
NBC News đưa tin trong tuần này rằng OpenAI đã gửi trát hầu tòa rộng rãi tới Encode và sáu tổ chức phi lợi nhuận khác chỉ trích công ty, yêu cầu cung cấp thông tin liên lạc của họ liên quan đến hai đối thủ lớn nhất của OpenAI, Musk và Giám đốc điều hành Meta Mark Zuckerberg. OpenAI cũng yêu cầu Encode cung cấp các thông tin liên lạc liên quan đến việc hỗ trợ SB 53.
Một nhà lãnh đạo an toàn AI nổi tiếng nói với TechCrunch rằng có sự chia rẽ ngày càng tăng giữa nhóm quan hệ chính phủ của OpenAI và tổ chức nghiên cứu của nó. Trong khi các nhà nghiên cứu an toàn của OpenAI thường xuyên công bố các báo cáo tiết lộ rủi ro của hệ thống AI, đơn vị chính sách của OpenAI đã vận động chống lại SB 53, nói rằng họ muốn có các quy tắc thống nhất ở cấp liên bang.
Người đứng đầu bộ phận liên kết sứ mệnh của OpenAI, Joshua Achiam, đã lên tiếng về việc công ty của ông gửi trát đòi hầu tòa cho các tổ chức phi lợi nhuận trong một bài đăng trên X tuần này.
Achiam nói: “Trước nguy cơ có thể xảy ra với toàn bộ sự nghiệp của tôi, tôi sẽ nói: điều này có vẻ không ổn chút nào”.
Brendan Steinhauser, Giám đốc điều hành của Liên minh phi lợi nhuận về an toàn AI cho AI an toàn (chưa được OpenAI triệu tập), nói với TechCrunch rằng OpenAI dường như đã thuyết phục được những người chỉ trích họ là một phần trong âm mưu do Musk lãnh đạo. Tuy nhiên, ông lập luận rằng trường hợp này không phải như vậy và phần lớn cộng đồng an toàn AI khá chỉ trích hoặc thiếu các biện pháp an toàn của xAI.
Steinhauser cho biết: “Về phía OpenAI, điều này nhằm mục đích khiến những người chỉ trích im lặng, đe dọa họ và ngăn cản các tổ chức phi lợi nhuận khác làm điều tương tự”. “Đối với Sacks, tôi nghĩ anh ấy lo ngại rằng [the AI safety] phong trào đang phát triển và mọi người muốn buộc các công ty này phải chịu trách nhiệm.”
Sriram Krishnan, cố vấn chính sách cấp cao của Nhà Trắng về AI và là cựu đối tác chung của a16z, đã tham gia vào cuộc trò chuyện trong tuần này bằng một bài đăng trên mạng xã hội của riêng mình, gọi những người ủng hộ an toàn AI là mất liên lạc. Ông kêu gọi các tổ chức an toàn AI nói chuyện với “những người trong thế giới thực đang sử dụng, bán và áp dụng AI tại nhà và tổ chức của họ”.
Một nghiên cứu gần đây của Pew cho thấy khoảng một nửa số người Mỹ quan tâm hơn là hào hứng với AI, nhưng vẫn chưa rõ chính xác điều gì khiến họ lo lắng. Một nghiên cứu khác gần đây đã đi sâu vào chi tiết hơn và phát hiện ra rằng cử tri Mỹ quan tâm nhiều hơn đến tình trạng mất việc làm và deepfake hơn là những rủi ro thảm khốc do AI gây ra, điều mà phong trào an toàn AI chủ yếu tập trung vào.
Việc giải quyết những lo ngại về an toàn này có thể phải trả giá bằng sự tăng trưởng nhanh chóng của ngành AI – một sự đánh đổi khiến nhiều người ở Thung lũng Silicon lo lắng. Với việc đầu tư vào AI đang hỗ trợ phần lớn nền kinh tế Mỹ, nỗi lo về việc quản lý quá mức là điều dễ hiểu.
Nhưng sau nhiều năm tiến bộ về AI không được kiểm soát, phong trào an toàn AI dường như đang đạt được động lực thực sự vào năm 2026. Những nỗ lực của Thung lũng Silicon nhằm chống lại các nhóm tập trung vào an toàn có thể là một dấu hiệu cho thấy họ đang hoạt động.

