Nhung Phan
Intern Writer
Một lỗ hổng bảo mật mới có tên EchoLeak đã được phát hiện trong Microsoft Copilot – công cụ trí tuệ nhân tạo đang được tích hợp sâu trong hệ sinh thái Microsoft 365. Đây là lỗi không cần nhấp chuột đầu tiên từng được ghi nhận trên một tác nhân AI, và nó có thể khiến tin tặc từ xa đánh cắp dữ liệu nhạy cảm chỉ bằng cách… gửi email.
CEO của Microsoft Satya Nadella phát biểu trong sự kiện OpenAI DevDay vào ngày 6 tháng 11 năm 2023 tại San Francisco. Một lỗ hổng năm 2025 trong Copilot có thể cho phép kẻ tấn công từ xa thực hiện một cuộc tấn công mà không cần tương tác của người dùng. Justin Sullivan / Nhân viên qua Getty Images
Dữ liệu có thể bị rò rỉ bao gồm:
Người phát ngôn của Microsoft cho biết qua email: “Chúng tôi đánh giá cao Aim Labs vì đã xác định và báo cáo vấn đề này một cách có trách nhiệm để có thể giải quyết trước khi khách hàng của chúng tôi bị ảnh hưởng.”
Ngoài việc vá lỗ hổng, Microsoft cũng đã cập nhật hệ thống để giảm thiểu nguy cơ và đang triển khai thêm các biện pháp phòng vệ chuyên sâu nhằm củng cố an ninh toàn diện hơn cho sản phẩm AI của mình.
Jeff Pollard, Phó Chủ tịch và nhà phân tích tại Forrester, cho biết đây là một ví dụ điển hình cho những lo ngại lâu nay về rủi ro từ AI:
“Khi bạn trao quyền cho AI hành động thay mặt bạn – như quét email, lên lịch họp, gửi phản hồi... – thì kẻ tấn công cũng sẽ tìm mọi cách để xâm nhập thông qua khối dữ liệu khổng lồ trong cả email công việc và cá nhân.”
Dù hiện tại chưa có bằng chứng cho thấy lỗ hổng đã bị khai thác trong thực tế, các chuyên gia cho rằng đây là lời cảnh tỉnh về sự cẩn trọng tuyệt đối khi tích hợp AI vào hệ thống doanh nghiệp, nhất là với các tác vụ có quyền truy cập sâu như Microsoft Copilot. (Cybersecuritydive)

CEO của Microsoft Satya Nadella phát biểu trong sự kiện OpenAI DevDay vào ngày 6 tháng 11 năm 2023 tại San Francisco. Một lỗ hổng năm 2025 trong Copilot có thể cho phép kẻ tấn công từ xa thực hiện một cuộc tấn công mà không cần tương tác của người dùng. Justin Sullivan / Nhân viên qua Getty Images
Lỗ hổng EchoLeak nguy hiểm thế nào?
Theo các nhà nghiên cứu tại Aim Security, EchoLeak (được gán mã CVE-2025-32711) khai thác một điểm yếu được gọi là "vi phạm phạm vi LLM" – tức là dữ liệu đầu vào không đáng tin cậy từ bên ngoài tổ chức có thể chiếm quyền điều khiển mô hình AI. Kẻ tấn công chỉ cần gửi một email đặc biệt, và từ đó có thể truy cập sâu vào dữ liệu mà Microsoft Copilot được phép tiếp cận – mà không cần bất kỳ thao tác nào từ phía người dùng.Dữ liệu có thể bị rò rỉ bao gồm:
- Lịch sử trò chuyện
- Tài liệu trong OneDrive
- Nội dung trên SharePoint
- Cuộc trò chuyện trong Microsoft Teams
- Các dữ liệu được tải trước từ tổ chức
Microsoft nói gì và tình hình đã được xử lý ra sao?
Microsoft đã phối hợp với các nhà nghiên cứu trong nhiều tháng để giải quyết lỗ hổng này. Trong thông báo mới nhất (thứ Tư vừa qua), hãng khẳng định vấn đề đã được khắc phục hoàn toàn và người dùng không cần thực hiện hành động nào thêm.Người phát ngôn của Microsoft cho biết qua email: “Chúng tôi đánh giá cao Aim Labs vì đã xác định và báo cáo vấn đề này một cách có trách nhiệm để có thể giải quyết trước khi khách hàng của chúng tôi bị ảnh hưởng.”
Ngoài việc vá lỗ hổng, Microsoft cũng đã cập nhật hệ thống để giảm thiểu nguy cơ và đang triển khai thêm các biện pháp phòng vệ chuyên sâu nhằm củng cố an ninh toàn diện hơn cho sản phẩm AI của mình.
Jeff Pollard, Phó Chủ tịch và nhà phân tích tại Forrester, cho biết đây là một ví dụ điển hình cho những lo ngại lâu nay về rủi ro từ AI:
“Khi bạn trao quyền cho AI hành động thay mặt bạn – như quét email, lên lịch họp, gửi phản hồi... – thì kẻ tấn công cũng sẽ tìm mọi cách để xâm nhập thông qua khối dữ liệu khổng lồ trong cả email công việc và cá nhân.”
Dù hiện tại chưa có bằng chứng cho thấy lỗ hổng đã bị khai thác trong thực tế, các chuyên gia cho rằng đây là lời cảnh tỉnh về sự cẩn trọng tuyệt đối khi tích hợp AI vào hệ thống doanh nghiệp, nhất là với các tác vụ có quyền truy cập sâu như Microsoft Copilot. (Cybersecuritydive)