Hoàng Khang
Writer
Bộ Công an vừa phát đi thông báo cảnh báo về tình trạng tội phạm lợi dụng công nghệ để chỉnh sửa, cắt ghép hình ảnh và video công khai của người dân trên không gian mạng, biến chúng thành nội dung nhạy cảm nhằm đe dọa và tống tiền. Đối tượng bị nhắm đến thường là những người có điều kiện kinh tế hoặc địa vị xã hội, bao gồm lãnh đạo Ủy ban nhân dân tỉnh, các sở, ban, ngành trên cả nước.
Theo Bộ Công an, các đối tượng phạm tội sử dụng hình ảnh, video công khai của nạn nhân để tạo ra nội dung giả mạo, sau đó đe dọa nạn nhân phải chuyển tiền hoặc thực hiện các yêu cầu khác. Để ngăn chặn tình trạng này, Bộ Công an khuyến cáo người dân cần cảnh giác khi nhận được tin nhắn, cuộc gọi có nội dung đe dọa, không chuyển tiền khi bị ép buộc, và nhanh chóng trình báo cơ quan công an gần nhất hoặc phản ánh qua ứng dụng VNeID khi phát hiện dấu hiệu lừa đảo.
Deepfake là kỹ thuật sử dụng AI để tạo ra hình ảnh, video hoặc âm thanh giả mạo với độ chính xác cao, khiến người xem khó phân biệt thật giả. Kẻ gian có thể giả mạo lãnh đạo trong các cuộc họp trực tuyến để lừa đảo tài chính hoặc dựng lên các video giả để tống tiền. Một ví dụ điển hình là vụ việc kẻ lừa đảo giả danh lãnh đạo qua video, thuyết phục nhân viên chuyển khoản 25,6 triệu USD. Các cuộc tấn công kiểu này được dự báo sẽ ngày càng phổ biến.
Ngoài ra, deepfake còn được sử dụng trong các vụ lừa đảo tình cảm (AI romantic scams), nơi kẻ lừa đảo tạo ra các nhân vật hư cấu để tương tác với nạn nhân qua video, sau đó yêu cầu chuyển tiền với lý do khẩn cấp. Gần đây, một nhóm hơn 20 đối tượng đã bị bắt sau khi chiếm đoạt 46 triệu USD từ các nạn nhân tại Singapore và Ấn Độ. Giọng nói giả mạo (voice fakes) cũng được sử dụng để tấn công các ngân hàng có hệ thống xác thực bằng giọng nói. Báo cáo Identity Fraud năm 2025 cho biết, trung bình cứ 5 phút lại có một vụ tấn công deepfake xảy ra.
FBI cũng đưa ra các biện pháp phòng ngừa, bao gồm:

Theo Bộ Công an, các đối tượng phạm tội sử dụng hình ảnh, video công khai của nạn nhân để tạo ra nội dung giả mạo, sau đó đe dọa nạn nhân phải chuyển tiền hoặc thực hiện các yêu cầu khác. Để ngăn chặn tình trạng này, Bộ Công an khuyến cáo người dân cần cảnh giác khi nhận được tin nhắn, cuộc gọi có nội dung đe dọa, không chuyển tiền khi bị ép buộc, và nhanh chóng trình báo cơ quan công an gần nhất hoặc phản ánh qua ứng dụng VNeID khi phát hiện dấu hiệu lừa đảo.
Công nghệ deepfake: Mối đe dọa mới từ AI trong các vụ lừa đảo
Sự phát triển của công nghệ đã kéo theo các phương thức lừa đảo ngày càng tinh vi, đặc biệt với sự hỗ trợ của trí tuệ nhân tạo (AI). Theo báo cáo của các công ty bảo mật, số vụ tấn công mạng trên thế giới đã tăng vọt trong năm qua, trong đó lừa đảo (phishing) là mối đe dọa hàng đầu, với gần một nửa số người được khảo sát cho biết từng là nạn nhân. Đáng chú ý, tội phạm mạng đang tận dụng AI để nâng cấp các hình thức lừa đảo, trong đó công nghệ deepfake là một trong những công cụ nguy hiểm nhất.
Deepfake là kỹ thuật sử dụng AI để tạo ra hình ảnh, video hoặc âm thanh giả mạo với độ chính xác cao, khiến người xem khó phân biệt thật giả. Kẻ gian có thể giả mạo lãnh đạo trong các cuộc họp trực tuyến để lừa đảo tài chính hoặc dựng lên các video giả để tống tiền. Một ví dụ điển hình là vụ việc kẻ lừa đảo giả danh lãnh đạo qua video, thuyết phục nhân viên chuyển khoản 25,6 triệu USD. Các cuộc tấn công kiểu này được dự báo sẽ ngày càng phổ biến.
Ngoài ra, deepfake còn được sử dụng trong các vụ lừa đảo tình cảm (AI romantic scams), nơi kẻ lừa đảo tạo ra các nhân vật hư cấu để tương tác với nạn nhân qua video, sau đó yêu cầu chuyển tiền với lý do khẩn cấp. Gần đây, một nhóm hơn 20 đối tượng đã bị bắt sau khi chiếm đoạt 46 triệu USD từ các nạn nhân tại Singapore và Ấn Độ. Giọng nói giả mạo (voice fakes) cũng được sử dụng để tấn công các ngân hàng có hệ thống xác thực bằng giọng nói. Báo cáo Identity Fraud năm 2025 cho biết, trung bình cứ 5 phút lại có một vụ tấn công deepfake xảy ra.
Cách nhận biết và phòng tránh lừa đảo bằng hình ảnh, video giả mạo
Để đối phó với mối đe dọa từ deepfake, các chuyên gia bảo mật khuyến nghị người dùng cần cảnh giác với các lời khuyên đầu tư từ người nổi tiếng trên mạng xã hội, đặc biệt khi chúng có vẻ quá hấp dẫn. Người dùng nên quan sát kỹ các biểu cảm khuôn mặt trong video để phát hiện dấu hiệu giả mạo, như chuyển động không tự nhiên hoặc chi tiết méo mó trong hình ảnh.FBI cũng đưa ra các biện pháp phòng ngừa, bao gồm:
- Kiểm soát nội dung chia sẻ trên mạng xã hội, hạn chế đăng tải hình ảnh, video hoặc âm thanh công khai.
- Đặt chế độ riêng tư cho tài khoản mạng xã hội để bảo vệ thông tin cá nhân.
- Cảnh giác với các tin nhắn, email hoặc cuộc gọi từ người lạ, đặc biệt là những cuộc gọi tự xưng là nhân viên ngân hàng, công an, hoặc cán bộ nhà nước.
- Không cung cấp thông tin cá nhân, tài khoản ngân hàng, hoặc làm theo yêu cầu của họ.
- Ảnh có chi tiết méo mó.
- Video có chuyển động kỳ lạ.
- Giọng nói với ngữ điệu không tự nhiên.

Nâng cao nhận thức về an ninh mạng để tự bảo vệ
Khi AI ngày càng được tích hợp vào cuộc sống hàng ngày, nguy cơ trở thành mục tiêu của các chiêu trò lừa đảo tinh vi là điều không thể tránh khỏi. Thay vì lo sợ, người dân cần tập trung nâng cao nhận thức và hiểu biết về an ninh mạng. Mỗi cá nhân có thể tự bảo vệ mình bằng cách:- Cập nhật thông tin liên tục về các thủ đoạn lừa đảo mới nhất.
- Cảnh giác và cẩn trọng khi sử dụng Internet.
- Sử dụng các ứng dụng như VNeID để phản ánh và cập nhật thông tin lừa đảo.