Chris Lehane là một trong những người giỏi nhất trong lĩnh vực làm biến mất những tin xấu. Thư ký báo chí của Al Gore trong những năm Clinton, giám đốc quản lý khủng hoảng của Airbnb qua mọi cơn ác mộng pháp lý từ đây đến Brussels – Lehane biết cách xoay chuyển. Bây giờ, anh ấy đã thực hiện được hai năm công việc có thể là hợp đồng bất khả thi nhất của mình: với tư cách là Phó chủ tịch chính sách toàn cầu của OpenAI, công việc của anh ấy là thuyết phục thế giới rằng OpenAI thực sự quan tâm đến việc dân chủ hóa trí tuệ nhân tạo trong khi công ty ngày càng hành xử giống như mọi gã khổng lồ công nghệ khác từng được tuyên bố là khác biệt.
Tôi đã có 20 phút với anh ấy trên sân khấu tại hội nghị Elevate ở Toronto vào đầu tuần này – 20 phút để vượt qua các điểm đang thảo luận và đi vào những mâu thuẫn thực sự đang ăn mòn hình ảnh được xây dựng cẩn thận của OpenAI. Nó không hề dễ dàng hay hoàn toàn thành công. Lehane thực sự giỏi trong công việc của mình. Anh ấy thật đáng yêu. Anh ấy nghe có vẻ hợp lý. Anh ấy thừa nhận sự không chắc chắn. Anh ấy thậm chí còn nói về việc thức dậy lúc 3 giờ sáng và lo lắng liệu điều này có thực sự mang lại lợi ích cho nhân loại hay không.
Nhưng những ý định tốt không có nhiều ý nghĩa khi công ty của bạn đang triệu tập những người chỉ trích, tiêu hao điện nước của các thị trấn đang suy thoái kinh tế và khiến những người nổi tiếng đã chết sống lại để khẳng định sự thống trị thị trường của bạn.
Vấn đề Sora của công ty thực sự là gốc rễ của mọi thứ khác. Công cụ tạo video ra mắt vào tuần trước với nội dung có bản quyền dường như được tích hợp ngay vào đó. Đó là một bước đi táo bạo đối với một công ty đã bị New York Times, Toronto Star và một nửa ngành xuất bản kiện. Từ quan điểm kinh doanh và tiếp thị, nó cũng rất xuất sắc. Ứng dụng chỉ dành cho người được mời đã vươn lên dẫn đầu App Store khi mọi người tạo ra các phiên bản kỹ thuật số của chính họ, Giám đốc điều hành OpenAI Sam Altman; các nhân vật như Pikachu, Mario và Cartman của “South Park”; và những người nổi tiếng đã chết như Tupac Shakur.
Khi được hỏi điều gì đã thúc đẩy OpenAI quyết định tung ra phiên bản Sora mới nhất này với những nhân vật này, Lehane cho rằng Sora là một “công nghệ có mục đích chung” giống như báo in, dân chủ hóa khả năng sáng tạo cho những người không có tài năng hoặc nguồn lực. Anh ấy nói trên sân khấu rằng ngay cả anh ấy – người tự nhận mình là con số 0 sáng tạo – cũng có thể làm video.
Điều anh ấy băn khoăn là ban đầu OpenAI “cho phép” chủ sở hữu quyền chọn không sử dụng tác phẩm của họ để đào tạo Sora, đây không phải là cách sử dụng bản quyền thường hoạt động. Sau đó, sau khi OpenAI nhận thấy rằng mọi người thực sự thích sử dụng hình ảnh có bản quyền, nó đã “phát triển” theo hướng mô hình chọn tham gia. Đó không thực sự là sự lặp lại. Đó là thử nghiệm xem bạn có thể thoát được bao nhiêu. (Nhân tiện, mặc dù Hiệp hội Điện ảnh đã gây ồn ào vào tuần trước về các mối đe dọa pháp lý, OpenAI dường như đã thoát khỏi khá nhiều vấn đề.)
Đương nhiên, tình hình khiến người ta nhớ đến sự trầm trọng hơn của các nhà xuất bản cáo buộc OpenAI đào tạo công việc của họ mà không chia sẻ chiến lợi phẩm tài chính. Khi tôi ép Lehane về việc các nhà xuất bản bị loại khỏi lĩnh vực kinh tế, anh ấy đã viện dẫn sử dụng hợp lý, học thuyết pháp lý của Mỹ nhằm cân bằng quyền của người sáng tạo với khả năng tiếp cận kiến thức của công chúng. Ông gọi nó là vũ khí bí mật cho sự thống trị công nghệ của Mỹ.
sự kiện Techcrunch
San Francisco
|
Ngày 27-29 tháng 10 năm 2025
Có lẽ. Nhưng gần đây tôi đã phỏng vấn Al Gore – sếp cũ của Lehane – và nhận ra rằng bất kỳ ai cũng có thể hỏi ChatGPT về điều đó thay vì đọc bài viết của tôi trên TechCrunch. “Nó ‘lặp đi lặp lại’,” tôi nói, “nhưng nó cũng là một sự thay thế.”
Lehane lắng nghe và bỏ dở bài diễn thuyết của mình. “Tất cả chúng ta sẽ cần phải tìm ra điều này,” ông nói. “Thật là hào hứng và dễ dàng khi ngồi đây trên sân khấu và nói rằng chúng ta cần tìm ra các mô hình doanh thu kinh tế mới. Nhưng tôi nghĩ chúng ta sẽ làm được.” (Tóm lại, chúng tôi đang tiến hành hòa giải, đó là những gì tôi nghe được.)
Sau đó là câu hỏi về cơ sở hạ tầng mà không ai muốn trả lời một cách trung thực. OpenAI hiện đang vận hành một khuôn viên trung tâm dữ liệu ở Abilene, Texas và gần đây đã khởi công một trung tâm dữ liệu khổng lồ ở Lordstown, Ohio, với sự hợp tác của Oracle và SoftBank. Lehane đã so sánh việc áp dụng AI với sự ra đời của điện – nói rằng những người truy cập nó lần cuối vẫn đang chơi trò đuổi kịp – nhưng dự án Stargate của OpenAI dường như đang nhắm mục tiêu vào một số địa điểm gặp khó khăn về kinh tế tương tự như những địa điểm để thiết lập cơ sở vật chất với người phục vụ và nhu cầu lớn về nước và điện.
Khi được hỏi trong cuộc họp của chúng tôi liệu những cộng đồng này sẽ được hưởng lợi hay chỉ đơn thuần là người gánh chịu hóa đơn, Lehane đã đề cập đến gigawatt và địa chính trị. Ông lưu ý rằng OpenAI cần khoảng một gigawatt năng lượng mỗi tuần. Trung Quốc đã cung cấp 450 gigawatt vào năm ngoái cùng với 33 cơ sở hạt nhân. Ông nói, nếu các nền dân chủ muốn AI dân chủ, họ phải cạnh tranh. “Người lạc quan trong tôi nói rằng điều này sẽ hiện đại hóa hệ thống năng lượng của chúng ta,” ông nói, đồng thời vẽ ra một bức tranh về nước Mỹ tái công nghiệp hóa với lưới điện đã được chuyển đổi.
Nó đầy cảm hứng, nhưng nó không phải là câu trả lời về việc liệu người dân ở Lordstown và Abilene có thấy hóa đơn tiện ích của họ tăng vọt hay không trong khi OpenAI tạo video về The Notorious BIG (Tạo video là AI tiêu tốn nhiều năng lượng nhất hiện có.)
Cái giá phải trả về con người đã trở nên rõ ràng hơn một ngày trước cuộc phỏng vấn của chúng tôi, khi Zelda Williams đăng nhập vào Instagram để cầu xin những người lạ ngừng gửi video do AI tạo ra về người cha quá cố của cô, Robin Williams. “Bạn không làm nghệ thuật,” cô viết. “Bạn đang tạo ra những chiếc xúc xích kinh tởm, được chế biến quá mức đối với cuộc sống của con người.”
Khi tôi hỏi về cách công ty dung hòa loại tổn hại sâu sắc này với sứ mệnh của mình, Lehane trả lời bằng cách nói về các quy trình, bao gồm thiết kế có trách nhiệm, khuôn khổ thử nghiệm và quan hệ đối tác với chính phủ. “Không có cẩm nang nào cho những thứ này phải không?”
Lehane tỏ ra dễ bị tổn thương trong một số khoảnh khắc, nói rằng giấc ngủ của anh ấy bị gián đoạn hàng đêm vì lo lắng về dân chủ hóa, địa chính trị và cơ sở hạ tầng. “Có những trách nhiệm to lớn đi kèm với việc này.”
Tôi tin anh ấy dù những khoảnh khắc đó có được thiết kế cho khán giả hay không. Thật vậy, tôi rời Toronto vì nghĩ rằng mình đã xem một lớp học thạc sĩ về thông điệp chính trị – Lehane xâu chuỗi một điều không thể trong khi né tránh các câu hỏi về các quyết định của công ty mà theo tất cả những gì tôi biết, anh ấy thậm chí còn không đồng ý. Sau đó tin tức đã phá vỡ bức tranh vốn đã phức tạp đó.
Nathan Calvin, một luật sư làm việc về chính sách AI tại tổ chức vận động phi lợi nhuận, Encode AI, tiết lộ rằng cùng lúc tôi đang nói chuyện với Lehane ở Toronto, OpenAI đã cử một phó cảnh sát trưởng đến nhà Calvin ở Washington, DC, trong bữa tối để tống đạt trát đòi hầu tòa cho anh ta. Họ muốn những tin nhắn riêng tư của anh ấy với các nhà lập pháp California, sinh viên đại học và cựu nhân viên OpenAI.
Calvin cho biết động thái này là một phần trong chiến thuật đe dọa của OpenAI xung quanh một quy định mới về AI, SB 53 của California. Ông nói rằng công ty đã vũ khí hóa cuộc chiến pháp lý đang diễn ra với Elon Musk như một cái cớ để nhắm vào những người chỉ trích, ngụ ý rằng Encode được Musk bí mật tài trợ. Calvin nói thêm rằng anh ấy đã đấu tranh với sự phản đối của OpenAI đối với SB 53 của California, một dự luật an toàn AI và khi anh ấy thấy OpenAI tuyên bố rằng nó “có tác dụng cải thiện dự luật”, anh ấy “đã cười thành tiếng theo đúng nghĩa đen”. Trong một cuộc trò chuyện trên mạng xã hội, anh ta tiếp tục gọi Lehane là “bậc thầy của nghệ thuật hắc ám chính trị”.
Ở Washington, đó có thể là một lời khen. Tại một công ty như OpenAI có sứ mệnh là “xây dựng AI mang lại lợi ích cho toàn nhân loại”, điều này nghe giống như một bản cáo trạng.
Nhưng điều quan trọng hơn nhiều là ngay cả những người của OpenAI cũng mâu thuẫn về những gì họ đang trở thành.
Như đồng nghiệp Max của tôi đã báo cáo vào tuần trước, một số nhân viên hiện tại và cựu nhân viên đã lên mạng xã hội sau khi Sora 2 được phát hành, bày tỏ sự nghi ngờ của họ. Trong số đó có Boaz Barak, một nhà nghiên cứu OpenAI và giáo sư Harvard, người đã viết về Sora 2 rằng nó “tuyệt vời về mặt kỹ thuật nhưng còn quá sớm để tự chúc mừng bản thân vì đã tránh được cạm bẫy của các ứng dụng mạng xã hội và deepfake khác”.
Vào thứ Sáu, Josh Achiam – người đứng đầu bộ phận liên kết sứ mệnh của OpenAI – đã tweet một điều thậm chí còn đáng chú ý hơn về lời buộc tội của Calvin. Mở đầu nhận xét của mình bằng cách nói rằng chúng “có thể là mối nguy hiểm cho toàn bộ sự nghiệp của tôi”, Achiam tiếp tục viết về OpenAI: “Chúng tôi không thể làm những việc khiến chúng tôi trở thành một thế lực đáng sợ thay vì một cường quốc có đạo đức. Chúng tôi có nghĩa vụ và sứ mệnh đối với toàn nhân loại. Tiêu chuẩn để theo đuổi nghĩa vụ đó là rất cao.”
Thật đáng để dừng lại để suy nghĩ. Một giám đốc điều hành OpenAI công khai đặt câu hỏi liệu công ty của anh ta có đang trở thành “một thế lực đáng sợ thay vì một thế lực có đạo đức” hay không, không ngang bằng với việc một đối thủ cạnh tranh đang chụp ảnh hoặc một phóng viên đặt câu hỏi. Đây là người đã chọn làm việc tại OpenAI, người tin tưởng vào sứ mệnh của nó và hiện đang thừa nhận sự khủng hoảng lương tâm bất chấp rủi ro nghề nghiệp.
Đó là một khoảnh khắc kết tinh, một khoảnh khắc mà những mâu thuẫn có thể càng gia tăng khi OpenAI chạy đua hướng tới trí tuệ nhân tạo tổng hợp. Tôi cũng nghĩ rằng câu hỏi thực sự không phải là liệu Chris Lehane có thể bán sứ mệnh của OpenAI hay không. Vấn đề là liệu những người khác – bao gồm cả những người làm việc ở đó – có còn tin vào điều đó hay không.
