Câu chuyện vũ khí sinh học ẩn giấu giữa tin tức vì lợi nhuận OpenAI

Tin tức lớn cho việc theo đuổi trí thông minh nhân tạo nói chung — hay AI có trí thông minh ở cấp độ con người trên diện rộng. OpenAI, mô tả sứ mệnh của mình là “đảm bảo rằng AGI mang lại lợi ích cho toàn nhân loại”, đã hoàn tất kế hoạch tái cơ cấu doanh nghiệp lâu dài của mình vào ngày hôm qua. Nó có thể thay đổi hoàn toàn cách chúng ta tiếp cận rủi ro từ AI, đặc biệt là rủi ro sinh học.

Đầu tiên xin giới thiệu nhanh: OpenAI ban đầu được thành lập như một tổ chức phi lợi nhuận vào năm 2015, nhưng bốn năm sau đó đã trở thành một tổ chức hoạt động vì lợi nhuận. Tổ chức phi lợi nhuận này giờ đây sẽ được đặt tên là OpenAI Foundation và công ty con hoạt động vì lợi nhuận hiện là một tập đoàn lợi ích công cộng, được gọi là OpenAI Group. (PBC có các yêu cầu pháp lý để cân bằng sứ mệnh và lợi nhuận, không giống như các cấu trúc khác.) Quỹ vẫn sẽ kiểm soát Tập đoàn OpenAI và có 26% cổ phần, được định giá khoảng 130 tỷ USD khi kết thúc tái cấp vốn. (Tiết lộ: Vox Media là một trong số các nhà xuất bản đã ký thỏa thuận hợp tác với OpenAI. Báo cáo của chúng tôi vẫn độc lập về mặt biên tập.)

OpenAI viết trong một bài đăng trên blog: “Chúng tôi tin rằng công nghệ mạnh mẽ nhất thế giới phải được phát triển theo cách phản ánh được lợi ích chung của thế giới”.

Một trong những động thái đầu tiên của OpenAI – bên cạnh thương vụ lớn với Microsoft – là quỹ đầu tư 25 tỷ USD để tăng tốc nghiên cứu sức khỏe và hỗ trợ “các giải pháp kỹ thuật thực tế cho khả năng phục hồi của AI, nhằm tối đa hóa lợi ích của AI và giảm thiểu rủi ro của nó”.

Đăng ký tại đây để khám phá những vấn đề lớn, phức tạp mà thế giới phải đối mặt và những cách hiệu quả nhất để giải quyết chúng. Gửi hai lần một tuần.

Tối đa hóa lợi ích và giảm thiểu rủi ro là thách thức thiết yếu trong việc phát triển AI tiên tiến và không có chủ đề nào thể hiện được khía cạnh đó tốt hơn khoa học đời sống. Sử dụng AI trong sinh học và y học có thể tăng cường phát hiện bệnh, cải thiện phản ứng và thúc đẩy việc khám phá các phương pháp điều trị và vắc xin mới. Nhưng nhiều chuyên gia cho rằng một trong những rủi ro lớn nhất xung quanh AI tiên tiến là khả năng tạo ra các tác nhân sinh học nguy hiểm, hạ thấp rào cản gia nhập để tiến hành các cuộc tấn công bằng vũ khí sinh học chết người.

Và OpenAI nhận thức rõ rằng các công cụ của nó có thể bị lạm dụng để tạo ra vũ khí sinh học.

Công ty AI tiên phong đã thiết lập các biện pháp bảo vệ cho Đại lý ChatGPT của mình, nhưng chúng ta đang ở những ngày đầu tiên về những gì khả năng sinh học AI có thể thực hiện được. Đó là lý do tại sao một tin tức gần đây khác – rằng Quỹ khởi nghiệp của OpenAI, cùng với Lux Capital và Quỹ sáng lập, đã cung cấp 30 triệu đô la tài trợ ban đầu cho công ty khởi nghiệp phòng thủ sinh học Valthos có trụ sở tại New York – có thể trở nên quan trọng gần như việc tái cấu trúc doanh nghiệp phức tạp của công ty.

Valthos đặt mục tiêu xây dựng “ngăn xếp công nghệ” thế hệ tiếp theo để phòng vệ sinh học — và nhanh chóng. “Khi AI tiến bộ, bản thân cuộc sống đã trở nên có thể lập trình được,” công ty viết trong một bài đăng giới thiệu trên blog sau khi thoát khỏi tình trạng tàng hình vào thứ Sáu tuần trước. “Thế giới đang tiến tới khả năng tiếp cận gần như toàn cầu với các công nghệ sinh học lưỡng dụng, mạnh mẽ có khả năng loại bỏ hoặc tạo ra bệnh tật.”

Bạn có thể tự hỏi liệu hành động tốt nhất có phải là hãm phanh hoàn toàn những công cụ này hay không, với tiềm năng hủy diệt, thảm khốc của chúng. Nhưng điều đó là không thực tế tại thời điểm chúng ta đang hướng tới những tiến bộ – và đầu tư – vào AI với tốc độ ngày càng nhanh hơn. Cuối cùng, điều cần đặt cược ở đây sẽ là liệu AI mà chúng tôi phát triển có thể giải quyết được những rủi ro do… AI mà chúng tôi phát triển gây ra hay không. Đó là một câu hỏi càng trở nên quan trọng hơn khi OpenAI và những tổ chức khác hướng tới AGI.

AI có thể bảo vệ chúng ta khỏi những rủi ro từ AI?

Valthos hình dung ra một tương lai nơi mọi mối đe dọa sinh học đối với nhân loại đều có thể “được xác định và vô hiệu hóa ngay lập tức, cho dù nguồn gốc là bên ngoài hay bên trong cơ thể chúng ta. Chúng tôi xây dựng hệ thống AI để nhanh chóng mô tả các trình tự sinh học và cập nhật thuốc theo thời gian thực.”

Điều này có thể cho phép chúng ta ứng phó nhanh hơn với các đợt bùng phát, có khả năng ngăn chặn dịch bệnh trở thành đại dịch. Chúng ta có thể tái sử dụng phương pháp điều trị và thiết kế các loại thuốc mới trong thời gian kỷ lục, giúp ích cho nhiều người mắc các bệnh khó điều trị hiệu quả.

Chúng ta thậm chí còn chưa tiến gần đến AGI về mặt sinh học (hoặc bất cứ thứ gì), nhưng chúng ta không cần phải đối mặt với những rủi ro đáng kể từ khả năng sinh học của AI, chẳng hạn như việc cố ý tạo ra các mầm bệnh mới nguy hiểm hơn bất kỳ thứ gì trong tự nhiên, có thể được phát tán một cách cố ý hoặc vô tình. Những nỗ lực như của Valthos là một bước đi đúng hướng, nhưng các công ty AI vẫn phải đi tiếp.

Jaime Yassif, phó chủ tịch chương trình và chính sách sinh học toàn cầu tại Sáng kiến ​​Đe dọa Hạt nhân cho biết: “Tôi rất lạc quan về tiềm năng phát triển và những lợi ích mà xã hội có thể đạt được từ khả năng sinh học AI”. “Tuy nhiên, đồng thời, điều cần thiết là chúng tôi phải phát triển và triển khai những công cụ này một cách có trách nhiệm.”

(Tiết lộ: Tôi từng làm việc tại NTI.)

Nhưng Yassif cho rằng vẫn còn rất nhiều việc phải làm để cải tiến sức mạnh dự đoán của các công cụ AI đối với sinh học.

Và AI hiện không thể mang lại lợi ích của nó một cách cô lập – cần phải tiếp tục đầu tư vào các cấu trúc khác để thúc đẩy sự thay đổi. AI là một phần của hệ sinh thái đổi mới công nghệ sinh học rộng lớn hơn. Các nhà nghiên cứu vẫn phải thực hiện nhiều công việc trong phòng thí nghiệm ướt, tiến hành thử nghiệm lâm sàng và đánh giá tính an toàn cũng như hiệu quả của phương pháp điều trị hoặc vắc xin mới. Họ cũng phải phổ biến các biện pháp đối phó y tế đó cho những người dân cần chúng nhất, điều này nổi tiếng là khó thực hiện và đầy rẫy các vấn đề quan liêu và tài trợ.

Mặt khác, những kẻ xấu có thể hoạt động ngay tại đây, ngay bây giờ và có thể ảnh hưởng đến cuộc sống của hàng triệu người nhanh hơn nhiều so với mức cần thiết để nhận ra lợi ích từ AI, đặc biệt nếu không có cách can thiệp thông minh. Đó là lý do tại sao điều quan trọng là các biện pháp bảo vệ nhằm chống lại việc khai thác các công cụ hữu ích có thể a) được triển khai ngay từ đầu và b) theo kịp những tiến bộ công nghệ nhanh chóng.

SaferAI, chuyên đánh giá các hoạt động quản lý rủi ro của các công ty AI hàng đầu, xếp hạng OpenAI là có khuôn khổ tốt thứ hai sau Anthropic. Nhưng mọi người đều có nhiều việc phải làm. Yassif nói: “Vấn đề không chỉ là ai đứng đầu. “Tôi nghĩ mọi người nên làm nhiều hơn nữa.”

Khi OpenAI và các tổ chức khác tiến gần hơn đến AI thông minh hơn con người, câu hỏi làm thế nào để tối đa hóa lợi ích và giảm thiểu rủi ro từ sinh học chưa bao giờ quan trọng hơn. Chúng ta cần đầu tư nhiều hơn vào phòng thủ sinh học AI và an toàn sinh học trên diện rộng khi các công cụ để thiết kế lại cuộc sống ngày càng tinh vi hơn. Vì vậy, tôi hy vọng rằng việc sử dụng AI để giải quyết rủi ro từ AI là một sự đánh cược có kết quả.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *