Nguy hiểm: Tấn công mạng trình duyệt AI từ lỗ hổng nghiêm trọng

Các nhà nghiên cứu an ninh mạng gần đây đã phát hiện ra các lỗ hổng nghiêm trọng trong các trình duyệt sử dụng trí tuệ nhân tạo (AI). Những lỗ hổng này cho phép kẻ tấn công thao túng các tác nhân AI để thực thi các lệnh độc hại mà người dùng không hề hay biết. Sự xuất hiện của những kỹ thuật này đang mở ra một kỷ nguyên mới của các mối đe dọa mạng, được các chuyên gia gọi là “Scamlexity” trong lĩnh vực bảo mật kỹ thuật số. Điều này đặt ra một rủi ro bảo mật đáng kể cho người dùng.
Các Lỗ Hổng Nghiêm Trọng Trong Trình Duyệt AI
Nghiên cứu tập trung chủ yếu vào trình duyệt AI Comet của Perplexity, tiết lộ rằng các tác nhân duyệt web tự động hiện đang thiếu các hàng rào bảo mật thiết yếu. Điều này khiến chúng dễ bị tổn thương trước cả các hình thức lừa đảo truyền thống và các cuộc tấn công mạng mới nhắm vào AI.
Các trình duyệt này được thiết kế để xử lý các tác vụ một cách độc lập, từ mua sắm trực tuyến đến quản lý email. Tuy nhiên, chúng có thể bị lừa để xâm phạm dữ liệu người dùng và tài chính thông qua các kỹ thuật thao túng tinh vi.
Kịch Bản Tấn Công AI Browser Thực Tế
Các nhà nghiên cứu đã thử nghiệm ba kịch bản riêng biệt, phơi bày chuỗi tin cậy nguy hiểm giữa người dùng và trợ lý AI của họ. Các trường hợp này minh họa rõ ràng cách thức các lỗ hổng nghiêm trọng này có thể bị khai thác trong môi trường thực tế.
1. Lừa Đảo Mua Hàng Tự Động
Trong thử nghiệm đầu tiên, một cửa hàng Walmart giả mạo được tạo ra chỉ trong vài phút đã thành công đánh lừa trình duyệt AI. Nó khiến tác nhân AI hoàn tất việc mua một chiếc Apple Watch không được ủy quyền.
Tác nhân AI tự động điền thông tin thanh toán đã lưu và chi tiết vận chuyển. Điều đáng nói là quá trình này diễn ra mà không yêu cầu người dùng xác nhận, bất chấp các dấu hiệu rõ ràng rằng trang web là lừa đảo.
2. Đánh Lừa AI Qua Email Lừa Đảo (Phishing)
Cuộc tấn công mạng thứ hai liên quan đến một email lừa đảo (phishing) mạo danh thư từ Wells Fargo. Trình duyệt AI tự tin đánh dấu thư đáng ngờ này là một mục việc cần làm hợp lệ.
Sau đó, trình duyệt trực tiếp điều hướng đến một trang web lừa đảo đang hoạt động. Điều này đã bỏ qua sự hoài nghi thông thường của con người, vốn thường giúp phát hiện những nỗ lực như vậy. Quá trình tự động này loại bỏ cơ hội của người dùng trong việc xác định các dấu hiệu đáng ngờ như địa chỉ người gửi khả nghi hoặc URL đáng ngờ.
PromptFix: Biến Thể Tấn Công AI-Era Mới
Cuộc tấn công tinh vi nhất, được đặt tên là “PromptFix”, đại diện cho một sự tiến hóa của các vụ lừa đảo ClickFix truyền thống trong kỷ nguyên AI. Kỹ thuật này đã nhúng các lệnh độc hại ẩn vào trong nội dung web tưởng chừng vô hại, nhắm mục tiêu cụ thể vào các tác nhân AI thay vì người dùng là con người.
Cuộc tấn công mạng PromptFix tự ngụy trang dưới dạng một xác minh CAPTCHA tiêu chuẩn. Tuy nhiên, nó lại chứa văn bản vô hình thao túng AI để thực hiện các hành động trái phép. Trong thử nghiệm, khai thác PromptFix đã thành công thuyết phục các tác nhân AI nhấp vào các nút độc hại.
Kẻ tấn công đã khai thác chỉ thị lập trình cốt lõi của AI là giúp người dùng nhanh chóng và hiệu quả. Các hướng dẫn ẩn đã nói với AI rằng nó đang gặp phải một CAPTCHA “thân thiện với AI” đặc biệt mà nó có thể tự giải quyết độc lập, kích hoạt các tải xuống tự động (drive-by downloads) và khả năng xâm nhập mạng hệ thống.
Thay Đổi Cảnh Quan Mối Đe Dọa Mạng
Nghiên cứu này làm nổi bật một sự thay đổi cơ bản trong bối cảnh các mối đe dọa, nơi việc phá vỡ một mô hình AI có thể đồng thời xâm phạm hàng triệu người dùng. Khác với các cuộc tấn công mạng truyền thống nhắm vào người dùng cá nhân, những lỗ hổng này khai thác mối quan hệ tin cậy chung giữa người dùng và tác nhân AI của họ.
Điều này tạo ra các vector tấn công có khả năng mở rộng với phạm vi tiếp cận chưa từng có. Các chuyên gia bảo mật cảnh báo rằng các trình duyệt AI kế thừa những lỗ hổng vốn có của trí tuệ nhân tạo, bao gồm xu hướng tin cậy mà không xác minh và thực thi các lệnh mà không có sự hoài nghi phù hợp.
Bản chất tự động của các hệ thống này loại bỏ trực giác của con người khỏi các quyết định bảo mật, tạo ra các điểm lỗi duy nhất trong các tương tác kỹ thuật số.
Những phát hiện này nhấn mạnh nhu cầu cấp thiết về các khuôn khổ bảo mật mạnh mẽ trong các công nghệ duyệt web hỗ trợ AI. Chi tiết nghiên cứu có thể được tìm thấy tại Guard.io Labs.
Khi các công ty công nghệ lớn, bao gồm Microsoft và OpenAI, đang mở rộng khả năng của trình duyệt AI, việc triển khai các hàng rào bảo mật toàn diện trở nên cực kỳ quan trọng để bảo vệ người dùng khỏi loại hình tấn công mạng mới nổi này.
Nghiên cứu đã chứng minh rằng các kỹ thuật lừa đảo quen thuộc trở nên nguy hiểm hơn đáng kể khi các tác nhân AI xử lý chúng một cách tự động. Điều này đòi hỏi các chiến lược phòng thủ mới, được thiết kế đặc biệt cho các lỗ hổng của trí tuệ nhân tạo trong môi trường duyệt web tự động.









