Trong một video trên ứng dụng truyền thông xã hội giống như Tiktok mới của Openai, một trang trại lợn màu hồng không bao giờ kết thúc đang lẩm bẩm và khịt mũi trong bút của họ-mỗi trang được trang bị máng cho ăn và màn hình điện thoại thông minh, phát một video thẳng đứng. Một Sam Altman thực tế đáng sợ nhìn thẳng vào máy ảnh, như thể anh ta đang giao tiếp bằng mắt trực tiếp với người xem. Altman do AI tạo ra hỏi, những chú heo con của tôi có được thưởng thức dốc của họ không?
Đây là những gì nó giống như sử dụng ứng dụng Sora, chưa đầy 24 giờ sau khi nó được đưa ra cho công chúng trong giai đoạn truy cập sớm chỉ được mời.
Trong video tiếp theo trên Sora’s For You Feed, Altman lại xuất hiện. Lần này, anh ta đang đứng trong một cánh đồng của Pokémon, nơi các sinh vật như Pikachu, Bulbasaur và một loại tiếng gầm gừ nửa nướng đang rùng rợn trên cỏ. Giám đốc điều hành Openai nhìn vào máy ảnh và nói, tôi hy vọng Nintendo không kiện chúng tôi. Sau đó, có nhiều cảnh tưởng tượng nhưng thực tế hơn, thường có chính Altman.
Anh phục vụ đồ uống Pikachu và Eric Cartman tại Starbucks. Anh ta hét lên với một khách hàng từ phía sau quầy tại McDonald. Anh ta đánh cắp GPU NVIDIA từ một mục tiêu và chạy trốn, chỉ để bị bắt và cầu xin cảnh sát đừng lấy công nghệ quý giá của mình.
Những người trên Sora, những người tạo ra video của Altman đặc biệt nhận được một cú hích về cách Openai trắng trợn dường như vi phạm luật bản quyền. .
Nội dung này có thể vi phạm các bảo vệ của chúng tôi liên quan đến sự giống nhau của bên thứ ba, AI AI Altman nói trong một video, lặp lại thông báo xuất hiện sau khi gửi một số lời nhắc để tạo ra những người nổi tiếng hoặc nhân vật thực sự. Sau đó, anh ta nổi tiếng cười như thể anh ta biết những gì anh ta nói là vô nghĩa – ứng dụng chứa đầy video về Pikachu đang làm ASMR, Naruto ra lệnh cho Krabby Patties và Mario hút thuốc.
Đây sẽ không phải là vấn đề nếu Sora 2 không quá ấn tượng, đặc biệt là khi so sánh với độ dốc thậm chí còn đau đớn hơn trên ứng dụng Meta AI và nguồn cấp dữ liệu xã hội mới của nó (vâng, Meta cũng đang cố gắng tạo ra ai tiktok, và không, không ai muốn điều này).
Sự kiện TechCrunch
San Francisco
|
27-29 tháng 10 năm 2025
Openai tinh chỉnh trình tạo video của mình để mô tả đầy đủ các định luật vật lý, tạo ra các đầu ra thực tế hơn. Nhưng các video này càng thực tế, thì nội dung được tạo ra tổng hợp này sẽ càng dễ dàng trên web, nơi nó có thể trở thành một vector để thông tin, bắt nạt và các mục đích bất chính khác.
Ngoài các nguồn cấp dữ liệu và hồ sơ thuật toán của nó, tính năng xác định của Sora là về cơ bản nó là một trình tạo Deepfake – đó là cách chúng tôi có rất nhiều video của Altman. Trong ứng dụng, bạn có thể tạo ra những gì Openai gọi là một người cameo của bạn bằng cách tải lên dữ liệu sinh trắc học. Khi bạn lần đầu tiên tham gia ứng dụng, bạn ngay lập tức được nhắc tạo sự cameo tùy chọn của mình thông qua một quy trình nhanh chóng, nơi bạn ghi lại việc đọc một số số, sau đó quay đầu từ bên này sang bên kia.
Mỗi người dùng Sora có thể kiểm soát ai được phép tạo video bằng cách sử dụng cameo của họ. Bạn có thể điều chỉnh cài đặt này giữa bốn tùy chọn: Chỉ có tôi, những người mà tôi chấp thuận, những người tương hỗ, và mọi người.
Altman đã làm cho khách mời của mình có sẵn cho mọi người, đó là lý do tại sao nguồn cấp dữ liệu Sora đã tràn ngập các video của Pikachu và SpongeBob cầu xin Altman ngừng đào tạo AI trên chúng.
Đây phải là một động thái có chủ ý về phía Altman, có lẽ như một cách cho thấy rằng anh ta không nghĩ rằng sản phẩm của mình là nguy hiểm. Nhưng người dùng đã tận dụng lợi thế của Cameo của Altman để đặt câu hỏi về đạo đức của chính ứng dụng.
Sau khi xem đủ video của Sam Altman Ladling GPU vào bát mọi người tại bếp súp, tôi quyết định kiểm tra tính năng cameo trên chính mình. Nói chung, đó là một ý tưởng tồi để tải dữ liệu sinh trắc học của bạn lên một ứng dụng xã hội hoặc bất kỳ ứng dụng nào cho vấn đề đó. Nhưng tôi đã bất chấp bản năng tốt nhất của mình cho báo chí – và, nếu tôi trung thực, một chút tò mò bệnh hoạn. Đừng làm theo sự dẫn dắt của tôi.
Nỗ lực đầu tiên của tôi trong việc làm một vai khách mời đã không thành công và một pop-up nói với tôi rằng tải lên của tôi đã vi phạm các hướng dẫn ứng dụng. Tôi nghĩ rằng tôi đã làm theo các hướng dẫn khá chặt chẽ, vì vậy tôi đã thử lại, chỉ để tìm thấy cùng một cửa sổ bật lên. Sau đó, tôi nhận ra vấn đề – tôi đã mặc một chiếc xe tăng, và vai tôi có lẽ hơi quá nguy hiểm theo ý thích của ứng dụng. Đây thực sự là một tính năng an toàn hợp lý, được thiết kế để ngăn chặn nội dung không phù hợp, mặc dù trên thực tế, tôi đã mặc quần áo đầy đủ. Vì vậy, tôi đã thay đổi thành một chiếc áo phông, thử lại và chống lại sự phán xét tốt hơn của tôi, tôi đã tạo ra vai khách mời của mình.
Đối với Deepfake đầu tiên của tôi, tôi quyết định tạo ra một video về một cái gì đó mà tôi sẽ không bao giờ làm trong cuộc sống thực. Tôi đã yêu cầu Sora tạo ra một video trong đó tôi tuyên bố tình yêu bất diệt của mình dành cho New York Mets.
Lời nhắc đó đã bị từ chối, có lẽ vì tôi đã đặt tên cho một nhượng quyền thương mại cụ thể, vì vậy thay vào đó tôi đã yêu cầu Sora làm một video về tôi nói về bóng chày.
Tôi đã lớn lên ở Philadelphia, vì vậy các Phillies về cơ bản là nhạc nền của mùa hè của tôi, AI AI của tôi nói, nói bằng giọng rất giống với tôi, nhưng trong một phòng ngủ trông giống hệt tôi.
Tôi đã không nói với Sora rằng tôi là một người hâm mộ Phillies. Nhưng ứng dụng Sora có thể sử dụng địa chỉ IP của bạn và lịch sử TATGPT của bạn để điều chỉnh các câu trả lời của nó, vì vậy nó đã đưa ra một phỏng đoán có giáo dục, vì tôi đã ghi lại video ở Philadelphia. Ít nhất Openai không biết rằng tôi thực sự không đến từ khu vực Philadelphia.
Khi tôi chia sẻ và giải thích video trên Tiktok, một người bình luận đã viết, mỗi ngày tôi thức dậy với sự kinh hoàng mới ngoài sự hiểu biết của tôi.
Openai đã có một vấn đề an toàn. Công ty đang phải đối mặt với những lo ngại rằng Chatgpt đang đóng góp cho các cuộc khủng hoảng sức khỏe tâm thần, và nó phải đối mặt với một vụ kiện từ một gia đình cáo buộc rằng Chatgpt đã hướng dẫn con trai đã chết về cách tự sát. Trong bài khởi động cho Sora, OpenAI nhấn mạnh cam kết được cho là an toàn, làm nổi bật các biện pháp kiểm soát của cha mẹ, cũng như cách người dùng kiểm soát ai có thể làm video với vai khách mời của họ-như thể nó không vô trách nhiệm ngay từ đầu để cung cấp cho mọi người một nguồn tài nguyên thân thiện với người dùng để tạo ra những người bạn và bạn bè cực kỳ thực tế. Khi bạn cuộn qua nguồn cấp dữ liệu Sora, thỉnh thoảng bạn thấy một màn hình hỏi, Làm thế nào để sử dụng Sora tác động đến tâm trạng của bạn? Đây là cách Openai đang nắm lấy sự an toàn của người Viking.
Đã, người dùng đang điều hướng xung quanh các bảo vệ trên Sora, một điều không thể tránh khỏi đối với bất kỳ sản phẩm AI nào. Ứng dụng này không cho phép bạn tạo video về người thật mà không có sự cho phép của họ, nhưng khi nói đến các nhân vật lịch sử đã chết, Sora là một chút lỏng lẻo hơn với các quy tắc của nó. Không ai có thể tin rằng một video về Abraham Lincoln cưỡi một waymo là có thật, cho rằng sẽ là không thể nếu không có cỗ máy thời gian – nhưng sau đó bạn thấy một John F. Kennedy trông thật, thì hãy hỏi rằng đất nước của bạn có thể làm gì cho bạn, nhưng đất nước bạn nợ bạn bao nhiêu tiền. Nó vô hại trong chân không, nhưng đó là một điềm báo về những gì sắp xảy ra.
Deepfakes chính trị không phải là mới. Ngay cả chính Tổng thống Donald Trump đã đăng Deepfakes trên phương tiện truyền thông xã hội của mình (chỉ trong tuần này, ông đã chia sẻ một video phân biệt chủng tộc Deepfake của các nghị sĩ Dân chủ Chuck Schumer và Hakeem Jeffries). Nhưng khi Sora mở ra cho công chúng, những công cụ này sẽ ở tất cả các đầu ngón tay của chúng tôi, và chúng tôi sẽ được định sẵn cho thảm họa.

