Xuất hiện bản ghi âm 'khó phân định thật giả' phó Tổng thống Mỹ chỉ trích Elon Musk

Mai Nhung
Mai Nhung
Phản hồi: 0

Mai Nhung

Writer
Một bản ghi âm lan truyền trên mạng xã hội, được cho là của Phó Tổng thống Mỹ JD Vance, với nội dung chỉ trích Elon Musk, đã gây xôn xao dư luận. Tuy nhiên, phía Phó Tổng thống đã lên tiếng khẳng định đây là sản phẩm deepfake, và các chuyên gia cũng gặp khó khăn trong việc xác định tính xác thực của bản ghi này. Vụ việc cho thấy deepfake âm thanh đang trở thành một mối đe dọa ngày càng lớn, đặc biệt trong bối cảnh chính trị nhạy cảm và AI đang ngày thông minh hơn.

Những điểm chính:
  • Một bản ghi âm giả mạo Phó Tổng thống Mỹ JD Vance chỉ trích Elon Musk đã lan truyền trên mạng.
  • Giám đốc truyền thông của ông Vance khẳng định đây là deepfake.
  • Các công cụ phát hiện deepfake gặp khó khăn trong việc xác định tính xác thực của bản ghi.
  • Deepfake âm thanh ngày càng tinh vi, có thể bị lợi dụng để phát tán thông tin sai lệch, bôi nhọ danh dự.
  • Các chuyên gia cảnh báo về nguy cơ deepfake và khuyến cáo người dùng nên thận trọng.
Bản ghi âm 'thật giả khó phân định'

Cuối tuần trước, một file ghi âm lan truyền trên các nền tảng mạng xã hội như TikTok, YouTube và X (trước đây là Twitter), thu hút hàng triệu lượt xem và hàng nghìn bình luận. Trong bản ghi âm này, một giọng nói, được cho là của Phó Tổng thống Mỹ JD Vance, đã chỉ trích Elon Musk, cho rằng Musk đang "đóng giả làm một nhà lãnh đạo vĩ đại" và khiến chính quyền trở nên tồi tệ.

jd-vance-and-elon-musk-254833651-16x9_0_png_75.jpg

Theo 404Media, bản ghi âm này "hoàn toàn đáng tin" vì giọng nói rất giống với giọng của ông Vance. Tiếng ồn nền và chất lượng âm thanh cũng tương tự như các bản ghi âm bí mật từng xuất hiện trong quá khứ.


Phủ nhận từ phía Phó Tổng thống và khó khăn trong việc xác minh

Tuy nhiên, vào cuối ngày 23/3/2025, William Martin, Giám đốc truyền thông của ông Vance, đã lên tiếng trên mạng xã hội X, khẳng định: "Đoạn ghi âm giả 100%, chắc chắn không phải lời của Phó Tổng thống."

Reality Defender, một công ty cung cấp phần mềm phát hiện AI tạo thông tin sai lệch, cũng chỉ đánh giá file âm thanh này "có khả năng là giả", thay vì khẳng định chắc chắn.

"Chúng tôi đã đưa đoạn âm thanh vào nhiều mô hình chuyên sâu và kết luận nó có thể là giả," phát ngôn viên của Reality Defender cho biết. "Tiếng ồn và tiếng vang được thêm vào một cách tinh vi để che giấu chất lượng âm thanh do deepfake tạo ra, khiến việc phát hiện khó khăn."

TikTok, YouTube và X chưa đưa ra bình luận về vụ việc.

Jd_vance_musk_audio_1742807199143_1742807202888_jpg_75.jpg

Deepfake: Công nghệ nguy hiểm khôn lường

Deepfake là sản phẩm của công nghệ AI, sử dụng kỹ thuật học sâu (deep learning) để phân tích cử chỉ, nét mặt, giọng nói của một người, từ đó tạo ra hình ảnh, video và âm thanh giả mạo, nhưng trông rất giống thật.

Hiện nay, người dùng có thể dễ dàng tiếp cận các công cụ tạo deepfake, thậm chí có những công cụ miễn phí. Điều này làm gia tăng nguy cơ deepfake bị lợi dụng để phát tán thông tin sai lệch, bôi nhọ danh dự, hoặc thực hiện các hành vi lừa đảo.

Cảnh báo từ các chuyên gia và cơ quan chức năng

Tuần trước, Cơ quan cảnh sát châu Âu (Europol) đã cảnh báo AI đang góp phần đẩy nhanh tốc độ phạm tội. "AI có thể tự động hóa hoạt động tội phạm, khiến chúng có khả năng mở rộng hơn và khó bị phát hiện hơn," tổ chức này cho biết.

Evan Dornbush, cựu chuyên gia an ninh mạng của Cơ quan An ninh Quốc gia Mỹ (NSA), nói với Forbes rằng AI có thể giúp kẻ lừa đảo tạo ra thông điệp đáng tin cậy và nhanh hơn, với chi phí rẻ hơn.

Cách nhận biết deepfake âm thanh

Theo ZDNet, người dùng có thể nhận biết âm thanh deepfake thông qua một số dấu hiệu:
  • Ngữ điệu: Giọng nói đều đều, lắp bắp, không tự nhiên.
  • Âm thanh: Quá trong trẻo như phòng thu, hoặc có tiếng ồn lạ.
Tuy nhiên, với sự tiến bộ của công nghệ, AI đang dần khắc phục những nhược điểm này, khiến việc phát hiện deepfake ngày càng trở nên khó khăn hơn.

Better Business Bureau đưa ra nguyên tắc: "Nếu mọi thứ nghe có vẻ quá ổn để có thể thành sự thật, chúng ta nên nghi ngờ."

Vụ việc deepfake âm thanh liên quan đến Phó Tổng thống Mỹ JD Vance là một lời cảnh báo về sự nguy hiểm của công nghệ này. Deepfake có thể bị lợi dụng để phát tán thông tin sai lệch, gây ảnh hưởng đến chính trị, xã hội, và đời sống cá nhân. Người dùng cần nâng cao cảnh giác, kiểm tra kỹ thông tin trước khi tin tưởng và chia sẻ, đồng thời các cơ quan chức năng và các công ty công nghệ cần có những biện pháp để ngăn chặn và xử lý các hành vi sử dụng deepfake với mục đích xấu.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top