Nguy hiểm chuỗi cung ứng rủi ro AI: Epic Fury thách thức an ninh

Nguy hiểm chuỗi cung ứng rủi ro AI: Epic Fury thách thức an ninh

Trong một diễn biến đáng chú ý và đầy thách thức về chính sách, Bộ Quốc phòng Hoa Kỳ (DoD) đã tiến hành triển khai mô hình AI Claude của Anthropic trong Chiến dịch Epic Fury, một cuộc tấn công chung với Israel vào ngày 28 tháng 2. Sự kiện này diễn ra chỉ vài giờ sau khi cựu Tổng thống Trump chính thức chỉ định Anthropic là một “chuỗi cung ứng rủi ro” đối với an ninh quốc gia. Chỉ định này đi kèm với yêu cầu tất cả các cơ quan liên bang ngừng sử dụng các hệ thống AI của công ty. Vụ việc này làm dấy lên những cuộc tranh luận gay gắt về đạo đức, hiệu quả hoạt động và quản lý chuỗi cung ứng rủi ro trong công nghệ AI chiến lược.

Nội dung
Triển Khai AI Trong Chiến Dịch Epic Fury
Anthropic Claude AI và Các Giao Tranh Chính Sách

Phản Ứng Của Anthropic và Quyết Định Về Chuỗi Cung Ứng Rủi Ro
Sự Tham Gia Của OpenAI và Các Cam Kết An Toàn AI
Tiền Lệ Mới Về Đạo Đức AI và An Ninh Quốc Gia

Triển Khai AI Trong Chiến Dịch Epic Fury

Vào ngày 28 tháng 2 năm 2026, các lực lượng quân sự của Mỹ và Israel đã phát động một chiến dịch tấn công phối hợp mật danh Operation Epic Fury/Roaring Lion. Mục tiêu của chiến dịch là các cơ sở chính phủ quan trọng của Iran, bao gồm các trung tâm hạt nhân và hạ tầng quân sự chiến lược.

Theo các báo cáo đáng tin cậy từ The Wall Street Journal, Axios và Reuters, Bộ Tư lệnh Trung tâm Hoa Kỳ (U.S. Central Command) đã tận dụng mô hình AI Claude của Anthropic. Việc triển khai này diễn ra xuyên suốt chiến dịch cho các mục đích chiến thuật và phân tích.

Cụ thể, Claude AI được sử dụng để hỗ trợ đánh giá tình báo chuyên sâu, xác định các mục tiêu quan trọng và thực hiện mô phỏng chiến trường phức tạp. Vai trò của AI trong việc ra quyết định chiến lược đã trở thành một điểm nóng.

Việc tiết lộ về việc sử dụng AI này có ý nghĩa sâu sắc. Các cuộc tấn công được thực hiện chỉ vài giờ sau khi chính quyền Trump đưa ra tuyên bố cấp quốc gia rằng Anthropic là một “chuỗi cung ứng rủi ro“. Đây là một chỉ định được thiết kế để cắt giảm ngay lập tức quyền tiếp cận của công ty đối với các hợp đồng quốc phòng nhạy cảm.

Các quan chức quốc phòng cao cấp đã xác nhận rằng việc rút hoàn toàn Claude khỏi hoạt động là không thể thực hiện được trong một khoảng thời gian ngắn như vậy. Điều này cho thấy sự phụ thuộc sâu sắc của Lầu Năm Góc vào công nghệ này. Claude vẫn là hệ thống AI độc nhất hiện đang được tích hợp vào một số mạng lưới chính phủ Hoa Kỳ đã được phân loại cao.

Anthropic Claude AI và Các Giao Tranh Chính Sách

Sự xung đột giữa Anthropic và Lầu Năm Góc đã gia tăng mạnh mẽ sau chiến dịch tháng 1 năm 2026. Nhiệm vụ đó đã dẫn đến việc bắt giữ Tổng thống Venezuela Nicolás Maduro, trong đó Claude cũng đóng vai trò quan trọng theo tiết lộ của Axios. Sự việc này đã châm ngòi cho cuộc đối đầu căng thẳng giữa nhà phát triển AI và giới lãnh đạo quốc phòng Hoa Kỳ.

Trọng tâm của tranh chấp là chính sách sử dụng chấp nhận được của Anthropic. Chính sách này bao gồm các lệnh cấm nghiêm ngặt đối với việc sử dụng Claude cho một số mục đích nhạy cảm:

  • Phát triển vũ khí hoặc bất kỳ công nghệ liên quan đến vũ khí nào.
  • Hoạt động giám sát hàng loạt hoặc các hình thức thu thập thông tin tình báo xâm phạm quyền riêng tư.
  • Thao túng chính trị hoặc gây ảnh hưởng đến các tiến trình bầu cử.
  • Các hoạt động quân sự hoặc chiến tranh mang tính tấn công.

Các quan chức Lầu Năm Góc đã mạnh mẽ thúc đẩy việc sử dụng mô hình này một cách không giới hạn. Họ lập luận rằng thực tế hoạt động quân sự không thể bị ràng buộc bởi các chính sách đạo đức thương mại của một nhà thầu bên ngoài. Điều này đặt ra một tiền lệ quan trọng về an ninh mạng trong bối cảnh hợp tác công-tư.

Phản Ứng Của Anthropic và Quyết Định Về Chuỗi Cung Ứng Rủi Ro

Vào thứ Năm, ngày 26 tháng 2, Giám đốc điều hành Anthropic, Dario Amodei, đã công khai nhắc lại lập trường kiên định của công ty. Ông từ chối dỡ bỏ các hạn chế sử dụng AI của mình, bất παρά áp lực gia tăng từ Bộ Quốc phòng.

Ngày hôm sau, vào thứ Sáu, ngày 27 tháng 2, Bộ trưởng Quốc phòng Peter Hegseth đã chính thức thông báo rằng Anthropic sẽ bị chỉ định là một “chuỗi cung ứng rủi ro“. Tuy nhiên, ông cũng bổ sung rằng công ty sẽ được cấp thời hạn lên đến sáu tháng. Khoảng thời gian này nhằm cho phép một “quá trình chuyển đổi liền mạch” khỏi hệ thống của Anthropic.

Sự nhượng bộ về thời gian này ngầm thừa nhận mức độ tích hợp sâu rộng của Claude vào cơ sở hạ tầng được phân loại của Lầu Năm Góc. Điều này cũng làm nổi bật những thách thức cố hữu trong việc quản lý và giảm thiểu chuỗi cung ứng rủi ro đối với các công nghệ chiến lược như AI.

Sự Tham Gia Của OpenAI và Các Cam Kết An Toàn AI

Chỉ khoảng bốn tiếng rưỡi sau thông báo của Lầu Năm Góc, Giám đốc điều hành OpenAI, Sam Altman, đã đăng trên nền tảng X. Ông tuyên bố rằng công ty của mình đã đạt được một thỏa thuận quan trọng với Bộ Chiến tranh. Thỏa thuận này cho phép triển khai các mô hình AI của OpenAI trong các mạng lưới quân sự được phân loại.

Altman nhấn mạnh rằng trong suốt quá trình đàm phán, Lầu Năm Góc đã thể hiện “sự tôn trọng sâu sắc đối với an toàn”. Các điều khoản được thống nhất bao gồm lệnh cấm sử dụng mô hình OpenAI cho mục đích giám sát hàng loạt trong nước và phát triển hệ thống vũ khí tự động. Đáng chú ý, các điều khoản này gần như tương đồng với những gì Anthropic đã tìm kiếm.

Thông báo của Altman trên X:


Tonight, we reached an agreement with the Department of War to deploy our models
in their classified network.

In all of our interactions, the DoW displayed a deep respect for safety and a
desire to partner to achieve the best possible outcome.

AI safety and wide distribution of…

Altman còn đi xa hơn khi công bố rằng OpenAI sẽ bố trí các kỹ sư an toàn chuyên trách ngay bên trong Lầu Năm Góc. Nhiệm vụ của họ là giám sát chặt chẽ hành vi của mô hình và đảm bảo tuân thủ các quy định. Ông cũng kêu gọi Bộ Chiến tranh mở rộng các điều khoản tương đương cho tất cả các nhà cung cấp AI khác đang hoạt động trong môi trường quốc phòng, nhằm thiết lập một tiêu chuẩn chung cho chuỗi cung ứng rủi ro AI.

Tiền Lệ Mới Về Đạo Đức AI và An Ninh Quốc Gia

Anthropic đã công khai tuyên bố sẽ thách thức việc chỉ định “chuỗi cung ứng rủi ro” tại tòa án. Công ty lập luận mạnh mẽ rằng các biện pháp bảo vệ đạo đức của họ không phải là những hạn chế tùy ý. Thay vào đó, chúng là những cam kết an toàn cơ bản và không thể thiếu. Những cam kết này là điều kiện tiên quyết bắt buộc trước khi triển khai AI tiên tiến trong các bối cảnh quân sự có tính rủi ro bảo mật cao.

Quan điểm của Anthropic phản ánh một căng thẳng lớn hơn đang diễn ra trong toàn ngành AI. Các nhà phát triển đang cố gắng duy trì các rào cản sử dụng có trách nhiệm. Tuy nhiên, các khách hàng chính phủ lại yêu cầu sự linh hoạt hoạt động không giới hạn, đặc biệt trong các tình huống nhạy cảm về an ninh mạng.

Tạp chí Defense One đã báo cáo rằng việc thay thế Claude của Anthropic trong cơ sở hạ tầng của Lầu Năm Góc có thể mất từ ba đến sáu tháng. Điều này là do sự tích hợp sâu rộng của nó vào các hệ thống được phân loại. Khung thời gian này trên thực tế đảm bảo việc tiếp tục sử dụng Claude trong phần lớn giữa năm 2026, cho thấy sự phức tạp trong việc quản lý chuỗi cung ứng rủi ro công nghệ cao.

Chiến dịch Epic Fury có thể sẽ trở thành trường hợp đầu tiên được xác nhận công khai về việc nhắm mục tiêu quân sự có sự hỗ trợ của AI được thực hiện. Điều đáng chú ý là hành động này đã diễn ra trái với một lệnh cấm điều hành đang hoạt động. Sự kiện này tạo ra một tiền lệ quan trọng. Nó định hình cách thức đạo đức AI, quy trình mua sắm quốc phòng, và chính sách an ninh quốc gia sẽ giao thoa và phát triển trong kỷ nguyên chiến tranh được hỗ trợ bởi AI. Để tìm hiểu thêm về cách quản lý các mối đe dọa liên quan đến chuỗi cung ứng rủi ro trong công nghệ, bạn có thể tham khảo nguồn đáng tin cậy từ CISA tại CISA Supply Chain Security.