Các chatbot AI hiện có thể tự mình thực hiện các cuộc tấn công mạng

Lên thực đơn, trị liệu, viết tiểu luận, các cuộc tấn công mạng toàn cầu có độ phức tạp cao: Mọi người liên tục nghĩ ra những cách sử dụng mới đầy sáng tạo cho các chatbot AI mới nhất.

Một cột mốc mới đáng báo động đã đạt được trong tuần này khi công ty trí tuệ nhân tạo Anthropic thông báo rằng trợ lý AI hàng đầu của họ là Claude đã bị tin tặc Trung Quốc sử dụng trong cái mà công ty gọi là “chiến dịch gián điệp mạng do AI dàn dựng được báo cáo đầu tiên”.

Theo báo cáo do Anthropic công bố, vào giữa tháng 9, công ty đã phát hiện một hoạt động gián điệp mạng quy mô lớn của một nhóm mà họ gọi là GTG-1002, nhắm vào “các tập đoàn công nghệ lớn, tổ chức tài chính, công ty sản xuất hóa chất và cơ quan chính phủ trên nhiều quốc gia”.

Những cuộc tấn công như thế không phải là hiếm. Điều làm cho điều này trở nên nổi bật là 80 đến 90% trong số đó được thực hiện bởi AI. Sau khi các nhà điều hành con người xác định được các tổ chức mục tiêu, họ sử dụng Claude để xác định cơ sở dữ liệu có giá trị trong đó, kiểm tra các lỗ hổng và viết mã riêng để truy cập cơ sở dữ liệu và trích xuất dữ liệu có giá trị. Con người chỉ tham gia vào một số điểm nghẽn quan trọng để đưa ra lời nhắc cho AI và kiểm tra công việc của nó.

Claude, giống như các mô hình ngôn ngữ lớn khác, được trang bị các biện pháp bảo vệ để ngăn chặn việc sử dụng nó cho loại hoạt động này, nhưng những kẻ tấn công đã có thể “bẻ khóa” chương trình bằng cách chia nhiệm vụ của nó thành các phần nhỏ hơn, có vẻ vô hại và nói với Claude rằng họ là một công ty an ninh mạng đang thực hiện thử nghiệm phòng thủ. Điều này đặt ra một số câu hỏi đáng lo ngại về mức độ mà các biện pháp bảo vệ trên các mô hình như Claude và ChatGPT có thể được điều động xung quanh, đặc biệt là những lo ngại về cách chúng có thể được sử dụng để phát triển vũ khí sinh học hoặc các vật liệu nguy hiểm khác trong thế giới thực.

Anthropic thừa nhận rằng đôi khi trong quá trình hoạt động, Claude đã “gây ảo giác hoặc tuyên bố đã trích xuất thông tin bí mật mà trên thực tế đã được công bố rộng rãi”. Ngay cả các tin tặc được nhà nước bảo trợ cũng phải đề phòng AI tạo ra mọi thứ.

Báo cáo nêu lên mối lo ngại rằng các công cụ AI sẽ khiến các cuộc tấn công mạng được thực hiện dễ dàng và nhanh chóng hơn nhiều, làm tăng tính dễ bị tổn thương của mọi thứ, từ hệ thống an ninh quốc gia nhạy cảm đến tài khoản ngân hàng của công dân bình thường.

Tuy nhiên, chúng ta vẫn chưa hoàn toàn ở trong chế độ vô chính phủ mạng. Trình độ kiến ​​​​thức kỹ thuật cần thiết để giúp Claude làm được điều này vẫn vượt xa mức bình thường của một trò troll trên mạng. Nhưng các chuyên gia đã cảnh báo từ nhiều năm nay rằng các mô hình AI có thể được sử dụng để tạo ra mã độc nhằm mục đích lừa đảo hoặc gián điệp, một hiện tượng được gọi là “hack rung cảm”. Vào tháng 2, các đối thủ cạnh tranh của Anthropic tại OpenAI đã báo cáo rằng họ đã phát hiện các tác nhân độc hại từ Trung Quốc, Iran, Triều Tiên và Nga sử dụng các công cụ AI của họ để hỗ trợ các hoạt động mạng.

Vào tháng 9, Trung tâm An ninh Mỹ Mới (CNAS) đã công bố một báo cáo về mối đe dọa tấn công do AI kích hoạt. Nó giải thích rằng phần tốn nhiều thời gian và tài nguyên nhất của hầu hết các hoạt động mạng là trong các giai đoạn lập kế hoạch, trinh sát và phát triển công cụ. (Bản thân các cuộc tấn công thường diễn ra nhanh chóng.) Bằng cách tự động hóa các nhiệm vụ này, AI có thể là nhân tố thay đổi cuộc chơi mang tính tấn công – và đó dường như chính xác là những gì đã diễn ra trong cuộc tấn công này.

Caleb Withers, tác giả của báo cáo CNAS, nói với Vox rằng thông báo từ Anthropic là “theo xu hướng”, xem xét những tiến bộ gần đây về khả năng AI và rằng “mức độ phức tạp mà điều này có thể được thực hiện một cách chủ yếu một cách tự động bởi AI, sẽ tiếp tục tăng lên.”

Chiến tranh mạng bóng tối của Trung Quốc

Anthropic cho biết các tin tặc đã để lại đủ manh mối để xác định rằng họ là người Trung Quốc, mặc dù đại sứ quán Trung Quốc tại Hoa Kỳ mô tả cáo buộc là “bôi nhọ và vu khống”.

Ở một khía cạnh nào đó, đây là một điều mỉa mai đối với Anthropic và toàn bộ ngành AI của Hoa Kỳ. Đầu năm nay, mô hình ngôn ngữ lớn DeepSeek của Trung Quốc đã gây chấn động khắp Washington và Thung lũng Silicon, cho thấy rằng bất chấp những nỗ lực của Mỹ nhằm hạn chế khả năng tiếp cận của Trung Quốc với các chip bán dẫn tiên tiến cần thiết để phát triển các mô hình ngôn ngữ AI, tiến bộ AI của Trung Quốc chỉ kém Mỹ một chút. Vì vậy, ít nhất có vẻ như cũng phần nào nói lên rằng ngay cả tin tặc Trung Quốc vẫn thích sử dụng chatbot sản xuất tại Mỹ cho các hoạt động khai thác mạng của họ.

Trong năm qua, ngày càng có nhiều cảnh báo về quy mô và mức độ phức tạp của các hoạt động mạng của Trung Quốc nhắm vào Mỹ. Chúng bao gồm các ví dụ như Volt Typhoon – một chiến dịch nhằm ưu tiên định vị các tác nhân mạng được nhà nước bảo trợ vào các hệ thống CNTT của Hoa Kỳ, để chuẩn bị cho chúng thực hiện các cuộc tấn công trong trường hợp xảy ra khủng hoảng hoặc xung đột lớn giữa Mỹ và Trung Quốc – và Salt Typhoon, một chiến dịch gián điệp đã nhắm mục tiêu vào các công ty viễn thông ở hàng chục quốc gia và nhắm mục tiêu vào thông tin liên lạc của các quan chức bao gồm Tổng thống Donald Trump và Phó Tổng thống JD Vance trong chiến dịch tranh cử tổng thống năm ngoái.

Các quan chức cho biết quy mô và mức độ phức tạp của các cuộc tấn công này vượt xa những gì chúng ta từng thấy trước đây. Nó cũng có thể chỉ là bản xem trước của những thứ sẽ xảy ra trong thời đại AI.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *