Rủi ro bảo mật AI: Mối đe dọa mạng và an ninh nghiêm trọng

Rủi ro bảo mật AI: Mối đe dọa mạng và an ninh nghiêm trọng

Báo cáo mới nhất chỉ ra rằng các tổ chức sản xuất đang đối mặt với thách thức kép: vừa nhanh chóng áp dụng công nghệ AI tạo sinh (Generative AI), vừa phải phòng thủ trước những kẻ tấn công lợi dụng chính các nền tảng này và dịch vụ đám mây đáng tin cậy để thực hiện các cuộc tấn công tinh vi. Điều này làm tăng đáng kể rủi ro bảo mật AI và yêu cầu tăng cường kiểm soát an ninh mạng trong toàn ngành. Báo cáo mới nhất cho thấy ngành sản xuất đang nhanh chóng đón nhận Generative AI, song song với việc đối mặt với những rủi ro bảo mật AI tiềm tàng do kẻ tấn công lợi dụng các nền tảng này.

Nội dung
Tình Hình Áp Dụng Generative AI Trong Ngành Sản Xuất

Tỷ Lệ Sử Dụng Và Xu Hướng Chuyển Đổi
Chuyển Dịch Sang Nền Tảng AI Doanh Nghiệp
Mối Đe Dọa Mạng Từ Việc Lạm Dụng Dịch Vụ Đám Mây Tin Cậy

Các Nền Tảng Bị Lợi Dụng Phổ Biến
Rủi Ro Từ Ứng Dụng Đám Mây Cá Nhân
Vi Phạm Chính Sách Dữ Liệu và Rủi Ro Thông Tin

Các Loại Dữ Liệu Bị Vi Phạm
Lỗ Hổng Từ Việc Sử Dụng AI Trong Quy Trình Nội Bộ
Biện Pháp Đối Phó và Khuyến Nghị Bảo Mật

Hạn Chế Ứng Dụng GenAI
Kiểm Soát Rò Rỉ Dữ Liệu
Khuyến Nghị Tăng Cường An Toàn Thông Tin

Tình Hình Áp Dụng Generative AI Trong Ngành Sản Xuất

Tỷ Lệ Sử Dụng Và Xu Hướng Chuyển Đổi

Generative AI đã trở thành công nghệ cốt lõi trong lĩnh vực sản xuất, với 94% tổ chức hiện đang sử dụng trực tiếp các ứng dụng genAI. Thậm chí, 97% sử dụng các ứng dụng tận dụng dữ liệu người dùng để đào tạo mô hình. Tuy nhiên, tình hình đang có sự thay đổi rõ rệt:

  • Sử dụng tài khoản genAI cá nhân đã giảm mạnh từ 83% (tháng 12/2024) xuống chỉ còn 51% (tháng 9/2025).
  • Các giải pháp được tổ chức phê duyệt tăng vọt từ 15% lên 42% trong cùng kỳ.

Sự chuyển dịch này phản ánh nhận thức ngày càng tăng về các rủi ro bảo mật AI liên quan đến các công cụ AI không được quản lý. ChatGPT thống trị với 87% tỷ lệ áp dụng, tiếp theo là Google Gemini (74%) và Microsoft 365 Copilot (58%). Đáng chú ý, Grok đã nhanh chóng tăng trưởng từ mức gần như không có lên 32% vào tháng 9, cho thấy sự sẵn lòng thử nghiệm các nền tảng mới nổi của ngành.

Chuyển Dịch Sang Nền Tảng AI Doanh Nghiệp

Các tổ chức đang dần chuyển từ các công cụ dựa trên trình duyệt sang các nền tảng genAI cấp doanh nghiệp, mang lại khả năng kiểm soát và quyền riêng tư tốt hơn.

  • 37% công ty sản xuất sử dụng dịch vụ OpenAI thông qua Azure.
  • 31% tận dụng Amazon Bedrock.
  • 8% sử dụng Google Vertex AI.

Ngoài ra, 67% tổ chức kết nối với các điểm cuối API của OpenAI cho các công cụ nội bộ và tác nhân AI, nhấn mạnh xu hướng tích hợp lập trình các khả năng AI vào các hệ thống kinh doanh cốt lõi.

Mối Đe Dọa Mạng Từ Việc Lạm Dụng Dịch Vụ Đám Mây Tin Cậy

Các tác nhân đe dọa đang ngày càng vũ khí hóa các dịch vụ đám mây đáng tin cậy để phát tán phần mềm độc hại, lợi dụng sự tin tưởng của người dùng vào các nền tảng quen thuộc. Đây là một mối đe dọa mạng đáng kể, làm gia tăng rủi ro bảo mật AI cho các tổ chức.

Các Nền Tảng Bị Lợi Dụng Phổ Biến

Microsoft OneDrive nổi lên là dịch vụ bị lạm dụng phổ biến nhất, với 18% các tổ chức sản xuất báo cáo tải xuống phần mềm độc hại hàng tháng. GitHub chiếm 14% các sự cố, lợi dụng sự phổ biến của nó trong giới nhà phát triển, trong khi Google Drive chiếm 11%.

Khoảng 22 trong số 10.000 người dùng trong lĩnh vực sản xuất gặp phải nội dung độc hại hàng tháng thông qua các nền tảng này. Mặc dù các nhà cung cấp dịch vụ đám mây tích cực loại bỏ các tệp độc hại, khoảng thời gian ngắn trước khi bị phát hiện thường đủ để các cuộc tấn công thành công. Các tệp bị nhiễm có thể lây lan nhanh chóng trong các tổ chức khi nhân viên chia sẻ tài liệu qua các dịch vụ được sử dụng rộng rãi này.

Rủi Ro Từ Ứng Dụng Đám Mây Cá Nhân

Việc sử dụng rộng rãi các ứng dụng đám mây cá nhân trong môi trường làm việc tiếp tục làm mờ ranh giới giữa quản lý dữ liệu công ty và cá nhân. Google Drive xuất hiện trong 98% môi trường sản xuất được giám sát, LinkedIn trong 95%OneDrive trong 94%. Mặc dù phần lớn hoạt động vẫn là hợp pháp, các nền tảng này tạo ra rủi ro bảo mật AI và rủi ro lộ dữ liệu đáng kể khi nhân viên sử dụng chúng để chia sẻ không chính thức hoặc khi rời tổ chức.

Vi Phạm Chính Sách Dữ Liệu và Rủi Ro Thông Tin

Phân tích vi phạm chính sách dữ liệu cho thấy những xu hướng đáng báo động, đặc biệt là trong bối cảnh các rủi ro bảo mật AI đang gia tăng. Dữ liệu được kiểm soát, bao gồm thông tin cá nhân, tài chính và chăm sóc sức khỏe, chiếm 41% các vi phạm trong các ứng dụng cá nhân.

Các Loại Dữ Liệu Bị Vi Phạm

  • Sở hữu trí tuệ chiếm 32% các sự cố.
  • Mật khẩu và khóa API chiếm 19%.
  • Mã nguồn chiếm 8%, thấp hơn đáng kể so với mức trung bình toàn cầu là 50%.

Những mô hình này làm nổi bật các rủi ro vốn có khi sử dụng các công cụ AI để tóm tắt tài liệu kỹ thuật, tạo báo cáo và tối ưu hóa quy trình phát triển, đặc biệt là liên quan đến rủi ro bảo mật AI.

Lỗ Hổng Từ Việc Sử Dụng AI Trong Quy Trình Nội Bộ

Trong các ứng dụng genAI, dữ liệu được kiểm soát chiếm 29% các trường hợp lộ lọt thông tin, tiếp theo là mã nguồn ở mức 28% và mật khẩu hoặc khóa API ở mức 26%. Điều này cho thấy cần phải có các chính sách kiểm soát chặt chẽ khi sử dụng AI trong các quy trình nghiệp vụ để giảm thiểu rủi ro bảo mật AI.

Biện Pháp Đối Phó và Khuyến Nghị Bảo Mật

Các công ty sản xuất đang phản ứng với các biện pháp bảo mật ngày càng tinh vi để giảm thiểu rủi ro bảo mật AI.

Hạn Chế Ứng Dụng GenAI

DeepSeek được xếp hạng là ứng dụng genAI bị chặn thường xuyên nhất, với 48% tổ chức hạn chế quyền truy cập do lo ngại về tính minh bạch. ZeroGPT đứng thứ hai với 43%, chủ yếu do các thực hành xử lý dữ liệu bao gồm lưu trữ nội dung đã gửi và chuyển hướng thông tin đến các trang web bên thứ ba.

Kiểm Soát Rò Rỉ Dữ Liệu

Các tổ chức đang triển khai nhiều công cụ để ngăn chặn rò rỉ dữ liệu thông qua các ứng dụng cá nhân.

  • Google Drive bị hạn chế ở 35% công ty.
  • ChatGPT cá nhân ở 29%.
  • Google Gemini23%.

Các biện pháp kiểm soát này bao gồm từ việc chặn tất cả các lượt tải lên đến cung cấp hướng dẫn người dùng theo thời gian thực và triển khai các giải pháp phòng ngừa mất dữ liệu (DLP) toàn diện. Điều này giúp giảm thiểu nguy cơ xâm nhập mạng thông qua các kênh không được kiểm soát.

Khuyến Nghị Tăng Cường An Toàn Thông Tin

Các chuyên gia bảo mật khuyến nghị mạnh mẽ các tổ chức sản xuất:

  • Kiểm tra tất cả các lượt tải xuống HTTPHTTPS.
  • Chặn các ứng dụng gây ra rủi ro không cân xứng.
  • Triển khai các chính sách DLP toàn diện để phát hiện thông tin nhạy cảm được gửi đến các vị trí trái phép.
  • Sử dụng công nghệ Cách ly Trình duyệt Từ xa (Remote Browser Isolation – RBI) khi truy cập các trang web có rủi ro cao hơn.

Khi ngành sản xuất tiếp tục tích hợp AI vào hoạt động, việc duy trì khung bảo mật mạnh mẽ đồng thời thúc đẩy đổi mới nhằm đối phó với rủi ro bảo mật AI vẫn là thách thức quan trọng đối với các nhà lãnh đạo ngành. Để biết thêm chi tiết về tình hình này, bạn có thể tham khảo báo cáo của Netskope: Threat Labs Report: Manufacturing 2025.