Chừng nào AI còn tồn tại, con người luôn có những lo ngại về AI và vũ khí hạt nhân. Và phim ảnh là một ví dụ điển hình cho những nỗi sợ hãi đó. Skynet từ Kẻ hủy diệt nhượng quyền thương mại trở nên có tri giác và bắn tên lửa hạt nhân vào nước Mỹ. WOPR từ Trò chơi chiến tranh suýt bắt đầu một cuộc chiến tranh hạt nhân vì thông tin sai lệch. Bản phát hành gần đây của Kathryn Bigelow, Nhà thuốc nổhỏi liệu AI có liên quan đến một cuộc tấn công tên lửa hạt nhân hướng tới Chicago hay không.
AI đã có trong doanh nghiệp hạt nhân của chúng tôi, Josh Keating của Vox nói Hôm nay giải thích đồng chủ trì Noel King. “Máy tính đã là một phần của việc này ngay từ đầu,” ông nói. “Một số máy tính kỹ thuật số đầu tiên từng được phát triển đã được sử dụng trong quá trình chế tạo bom nguyên tử trong Dự án Manhattan.” Nhưng chúng tôi không biết chính xác nó liên quan ở đâu và như thế nào.
Vậy chúng ta có cần phải lo lắng không? Có lẽ vậy, Keating lập luận. Nhưng không phải về việc AI đang kích động chúng ta.
Dưới đây là đoạn trích cuộc trò chuyện của họ, đã được chỉnh sửa để có độ dài và rõ ràng. Còn nhiều điều nữa trong tập đầy đủ, vì vậy hãy lắng nghe Hôm nay giải thích bất cứ nơi nào bạn nhận được podcast, bao gồm Apple Podcasts, Pandora và Spotify.
Có một phần trong Ngôi nhà của thuốc nổ nơi họ đang cố gắng tìm hiểu chuyện gì đã xảy ra và liệu AI có liên quan hay không. Những bộ phim này có những nỗi sợ hãi này về điều gì không?
Điều thú vị về phim ảnh khi đề cập đến chiến tranh hạt nhân là: Đây là một loại chiến tranh chưa từng xảy ra. Không có loại cựu chiến binh nào trong các cuộc chiến tranh hạt nhân ngoài hai quả bom chúng ta thả xuống Nhật Bản, đó là một kịch bản rất khác. Tôi nghĩ rằng phim ảnh luôn đóng một vai trò to lớn trong các cuộc tranh luận về vũ khí hạt nhân. Bạn có thể quay trở lại những năm 60 khi Bộ Tư lệnh Không quân Chiến lược thực sự đưa ra phản bác của riêng mình đối với Tiến sĩ Strangelove Và Không an toàn. Vào những năm 80, bộ phim truyền hình đó Ngày Sau là một loại động lực thúc đẩy phong trào đóng băng hạt nhân. Chủ tịch [Ronald] Reagan rõ ràng đã rất băn khoăn khi xem nó và nó đã ảnh hưởng đến suy nghĩ của ông về việc kiểm soát vũ khí với Liên Xô.
Trong chủ đề cụ thể mà tôi đang xem, đó là AI và vũ khí hạt nhân, đã có một số lượng đáng kinh ngạc các bộ phim lấy cốt truyện đó làm chủ đề. Và nó xuất hiện rất nhiều trong các cuộc tranh luận chính sách về vấn đề này. Tôi đã gặp những người ủng hộ việc tích hợp AI vào hệ thống chỉ huy hạt nhân nói rằng: “Hãy nhìn xem, đây sẽ không phải là Skynet”. Tướng Anthony Cotton, chỉ huy hiện tại của Bộ Tư lệnh Chiến lược – đơn vị quân đội chịu trách nhiệm về vũ khí hạt nhân – ủng hộ việc sử dụng nhiều hơn các công cụ AI. Ông đề cập đến bộ phim WarGames năm 1983 và nói: “Chúng ta sẽ có nhiều AI hơn, nhưng sẽ không có WOPR trong chỉ huy chiến lược”.
Tôi nghĩ ở đâu [the movies] hụt hẫng một chút là nỗi sợ hãi thường có xu hướng là một AI siêu thông minh sẽ chiếm lấy vũ khí hạt nhân của chúng ta và sử dụng nó để quét sạch chúng ta. Hiện tại, đó chỉ là mối lo ngại về mặt lý thuyết. Điều tôi nghĩ là mối quan tâm thực sự hơn là khi AI ngày càng tham gia vào nhiều phần của hệ thống chỉ huy và kiểm soát, liệu con người chịu trách nhiệm đưa ra các quyết định chế tạo vũ khí hạt nhân có thực sự hiểu AI đang hoạt động như thế nào không? Và nó sẽ ảnh hưởng như thế nào đến cách họ đưa ra những quyết định này, có thể – không ngoa khi nói – một số quyết định quan trọng nhất từng được đưa ra trong lịch sử loài người.
Con người làm việc về vũ khí hạt nhân có hiểu AI không?
Chúng tôi không biết chính xác AI ở đâu trong doanh nghiệp hạt nhân. Nhưng mọi người sẽ ngạc nhiên khi biết hệ thống chỉ huy và kiểm soát hạt nhân thực sự có công nghệ thấp đến mức nào. Cho đến năm 2019, họ vẫn sử dụng đĩa mềm cho hệ thống liên lạc của mình. Tôi thậm chí còn không nói về những cái nhựa nhỏ trông giống biểu tượng lưu của bạn trên Windows. Ý tôi là, những chiếc uốn cong của thập niên 80. Họ muốn các hệ thống này được an toàn trước sự can thiệp của mạng từ bên ngoài, vì vậy họ không muốn mọi thứ được kết nối với đám mây.
Nhưng khi quá trình hiện đại hóa hạt nhân trị giá hàng tỷ đô la đang diễn ra, một phần quan trọng trong đó là cập nhật các hệ thống này. Và nhiều chỉ huy của StratCom, bao gồm cả một vài người mà tôi đã nói chuyện, cho biết họ nghĩ AI nên tham gia vào việc này. Tất cả những gì họ đều nói là AI không nên chịu trách nhiệm đưa ra quyết định về việc liệu chúng ta có phóng vũ khí hạt nhân hay không. Họ nghĩ rằng AI có thể phân tích lượng thông tin khổng lồ và thực hiện việc đó nhanh hơn nhiều so với khả năng của con người. Và nếu bạn đã thấy Ngôi nhà của thuốc nổmột điều mà bộ phim thể hiện rất rõ là tổng thống và các cố vấn cấp cao sẽ phải đưa ra một số quyết định hoàn toàn bất thường và khó khăn nhanh đến mức nào.
Những lập luận lớn nào chống lại việc kết hợp AI và vũ khí hạt nhân với nhau?
Ngay cả những mô hình AI tốt nhất mà chúng ta có hiện nay vẫn dễ xảy ra lỗi. Một lo lắng khác là có thể có sự can thiệp từ bên ngoài vào các hệ thống này. Đó có thể là hack hoặc tấn công mạng, hoặc các chính phủ nước ngoài có thể tìm ra cách để đưa thông tin không chính xác vào mô hình. Đã có báo cáo rằng các mạng tuyên truyền của Nga đang tích cực cố gắng đưa thông tin sai lệch vào dữ liệu đào tạo được sử dụng bởi các chatbot AI của người tiêu dùng phương Tây. Và một điều nữa là cách mọi người tương tác với các hệ thống này. Có một hiện tượng được rất nhiều nhà nghiên cứu chỉ ra gọi là thiên vị tự động hóachỉ là mọi người có xu hướng tin tưởng vào thông tin mà hệ thống máy tính cung cấp cho họ.
Có rất nhiều ví dụ trong lịch sử về những thời điểm mà công nghệ thực sự đã dẫn đến những thảm họa hạt nhân gần như vậy và chính con người đã can thiệp để ngăn chặn sự leo thang. Có một trường hợp vào năm 1979 khi Zbigniew Brzezinski, cố vấn an ninh quốc gia Hoa Kỳ, thực sự bị đánh thức bởi một cuộc điện thoại vào lúc nửa đêm thông báo với ông rằng hàng trăm tên lửa vừa được phóng từ tàu ngầm Liên Xô ngoài khơi bờ biển Oregon. Và ngay trước khi ông định gọi cho Tổng thống Jimmy Carter để báo rằng nước Mỹ đang bị tấn công thì lại có một cuộc gọi khác nói rằng [the first] đã là một báo động sai. Vài năm sau, có một vụ án rất nổi tiếng ở Liên Xô. Đại tá Stanislav Petrov, người đang làm việc trong cơ sở hạ tầng phát hiện tên lửa của họ, được hệ thống máy tính thông báo rằng đã có một vụ phóng hạt nhân của Mỹ. Theo quy định, sau đó anh ta phải thông báo cho cấp trên của mình, những người có thể đã ra lệnh trả thù ngay lập tức. Nhưng hóa ra hệ thống đã hiểu sai ánh sáng mặt trời phản chiếu từ các đám mây là một vụ phóng tên lửa. Vì vậy, thật tốt khi Petrov đã quyết định đợi vài phút trước khi gọi điện cho cấp trên.
Tôi đang lắng nghe những ví dụ đó, và điều tôi có thể rút ra nếu nghĩ về nó một cách thực sự đơn giản là con người đã kéo chúng ta thoát khỏi bờ vực khi công nghệ gặp trục trặc.
Đó là sự thật. Và tôi nghĩ gần đây có một số thử nghiệm thực sự thú vị trên các mô hình AI trong các tình huống khủng hoảng quân sự và chúng thực sự có xu hướng diều hâu hơn những người ra quyết định là con người. Chúng tôi không biết chính xác tại sao lại như vậy. Nếu chúng ta nhìn vào lý do tại sao chúng ta chưa từng tham gia một cuộc chiến tranh hạt nhân – tại sao, 80 năm sau vụ Hiroshima, không ai thả một quả bom nguyên tử nào khác, tại sao chưa bao giờ xảy ra một cuộc trao đổi hạt nhân trên chiến trường – tôi nghĩ một phần lý do là vì nó đáng sợ đến mức nào. Làm thế nào con người hiểu được tiềm năng hủy diệt của những vũ khí này và sự leo thang này có thể dẫn đến điều gì. Rằng có một số bước nhất định có thể gây ra những hậu quả không lường trước được và nỗi sợ hãi là một phần quan trọng trong đó.
Theo quan điểm của tôi, tôi nghĩ chúng ta muốn đảm bảo rằng nỗi sợ hãi đã được tích hợp vào hệ thống. Những thực thể có khả năng hoàn toàn hoảng sợ trước tiềm năng hủy diệt của vũ khí hạt nhân chính là những người đưa ra quyết định quan trọng về việc có nên sử dụng chúng hay không.
Nghe có vẻ giống như đang xem Ngôi nhà của thuốc nổbạn có thể nghĩ một cách rõ ràng rằng có lẽ chúng ta nên loại bỏ hoàn toàn AI khỏi vấn đề này. Có vẻ như điều bạn đang nói là: AI là một phần của cơ sở hạ tầng hạt nhân đối với chúng tôi, đối với các quốc gia khác và có khả năng nó sẽ tiếp tục như vậy.
Một điều mà một người ủng hộ tự động hóa nhiều hơn đã nói với tôi là “nếu bạn không nghĩ con người có thể tạo ra một AI đáng tin cậy thì con người không có quyền kinh doanh vũ khí hạt nhân”. Nhưng vấn đề là, tôi nghĩ đó là tuyên bố mà những người cho rằng chúng ta nên loại bỏ hoàn toàn tất cả vũ khí hạt nhân cũng sẽ đồng ý.
Tôi có thể đã lo lắng rằng AI sẽ tiếp quản và chiếm lĩnh vũ khí hạt nhân, nhưng bây giờ tôi nhận ra rằng tôi đã đủ lo lắng về những gì mọi người sẽ làm gì với vũ khí hạt nhân. Không phải AI sẽ giết người bằng vũ khí hạt nhân. Đó là AI có thể khiến con người có nhiều khả năng giết nhau bằng vũ khí hạt nhân hơn. Ở một mức độ nào đó, AI là điều chúng ta ít lo lắng nhất. Tôi nghĩ bộ phim đã thể hiện rõ kịch bản mà chúng ta phải quyết định có sử dụng chúng thực sự vô lý đến mức nào hay không.

