A-Train The Seven
...'cause for once, I didn't hate myself.
Deepfake đã trở nên khó phát hiện một cách đáng báo động. Khó đến mức chỉ 0,1% số người hiện nay có thể xác định được chúng. Đó là theo iProov, một công ty xác thực sinh trắc học của Anh. Công ty đã kiểm tra kỹ năng phát hiện AI của công chúng bằng cách cho 2.000 người tiêu dùng ở Anh và Mỹ xem một bộ sưu tập cả nội dung thật và nội dung tổng hợp.
Đáng buồn thay, các nhà điều tra nghiệp dư đã thất bại trong cuộc điều tra của họ. 99,9% trong số họ không thể phân biệt giữa thật và deepfake. Bạn nghĩ rằng bạn có thể làm tốt hơn, Sherlock? Bạn không phải là người duy nhất.
Trong nghiên cứu của iProov, hơn 60% người tham gia tự tin vào kỹ năng phát hiện AI của họ - bất kể độ chính xác của phán đoán của họ. Bạn vẫn tin tưởng vào khả năng phát hiện manh mối kỹ thuật số của mình? Chà, bạn có thể tự kiểm tra nó trong một bài kiểm tra deepfake được phát hành cùng với kết quả nghiên cứu.
Bài kiểm tra xuất hiện trong bối cảnh các cuộc tấn công deepfake gây xôn xao dư luận gia tăng. Ví dụ, vào tháng 1, các tờ báo lá cải đã say mê một vụ tấn công nhắm vào một phụ nữ Pháp tên là Anne.
Những kẻ lừa đảo đã lừa cô 830.000 euro sau khi sử dụng deepfake để đóng giả Brad Pitt với deepfake của nam diễn viên. Những kẻ lừa đảo cũng đã gửi cho cô đoạn phim về một người dẫn chương trình truyền hình do AI tạo ra tiết lộ "mối quan hệ độc quyền của ngôi sao Hollywood với một cá nhân đặc biệt... có tên là Anne." Cô Anne tội nghiệp đã bị chế giễu vì sự ngây thơ của mình, nhưng cô không hề đơn độc khi trở thành nạn nhân của deepfake.
Năm ngoái, một cuộc tấn công deepfake đã xảy ra cứ sau năm phút, theo công ty xác minh ID Onfido. Nội dung này thường xuyên được vũ khí hóa để lừa đảo. Một nghiên cứu gần đây ước tính rằng AI thúc đẩy gần một nửa (43%) trong số tất cả các nỗ lực lừa đảo. Andrew Bud, người sáng lập và CEO của iProov, cho rằng sự leo thang này là do ba xu hướng hội tụ:
"Deepfake đã trở thành hàng hóa", Bud nói với TNW qua email. "Các công cụ để tạo nội dung deepfake có thể truy cập rộng rãi, rất phải chăng và tạo ra kết quả không thể phát hiện được bằng mắt thường. Nó đang tạo ra một cơn bão tội phạm mạng hoàn hảo, vì hầu hết các tổ chức thiếu các biện pháp phòng thủ đầy đủ để chống lại các cuộc tấn công này."
"Các giải pháp truyền thống và quy trình thủ công như nhận dạng video đơn giản là không thể theo kịp. Các tổ chức phải áp dụng các hệ thống sinh trắc học dựa trên khoa học kết hợp với các biện pháp phòng thủ hỗ trợ AI có thể phát hiện, phát triển cùng và ngăn chặn các cuộc tấn công này." Một số nhà cung cấp Huione thậm chí còn quảng cáo "dịch vụ thay đổi khuôn mặt" giá 200 đô la tiền điện tử.
Kể từ khi ChatGPT của OpenAI ra mắt vào năm 2022 và chứng kiến sự phổ biến của nó tăng lên, đã có ngày càng nhiều trường hợp các công ty lớn mất hàng triệu đô la vì các vụ lừa đảo deepfake. Những trò lừa đảo như vậy sử dụng AI tạo sinh để tạo ra danh tính và giọng nói tổng hợp và giả mạo cho phép những kẻ lừa đảo mạo danh người thật và vượt qua các biện pháp kiểm soát xác minh danh tính
Chainalysis nói rằng tiềm năng của công nghệ AI để mở rộng quy mô các vụ lừa đảo tiền điện tử theo cấp số nhân càng làm tăng thêm những thách thức liên quan đến việc chống lại những tội ác đó. Công ty cho biết, việc giải quyết các vụ lừa đảo tiền điện tử ở quy mô lớn sẽ đòi hỏi những nỗ lực bền vững từ các cơ quan chính phủ, cơ quan quản lý và tổ chức.
#deepfake
Đáng buồn thay, các nhà điều tra nghiệp dư đã thất bại trong cuộc điều tra của họ. 99,9% trong số họ không thể phân biệt giữa thật và deepfake. Bạn nghĩ rằng bạn có thể làm tốt hơn, Sherlock? Bạn không phải là người duy nhất.
Trong nghiên cứu của iProov, hơn 60% người tham gia tự tin vào kỹ năng phát hiện AI của họ - bất kể độ chính xác của phán đoán của họ. Bạn vẫn tin tưởng vào khả năng phát hiện manh mối kỹ thuật số của mình? Chà, bạn có thể tự kiểm tra nó trong một bài kiểm tra deepfake được phát hành cùng với kết quả nghiên cứu.
![1739593184485.png 1739593184485.png](https://vnrv.s3.hn-1.cloud.cmctelecom.vn/data/attachments/36/36553-64054776c8b74dfe2747e091fdcef171.jpg)
Bài kiểm tra xuất hiện trong bối cảnh các cuộc tấn công deepfake gây xôn xao dư luận gia tăng. Ví dụ, vào tháng 1, các tờ báo lá cải đã say mê một vụ tấn công nhắm vào một phụ nữ Pháp tên là Anne.
Những kẻ lừa đảo đã lừa cô 830.000 euro sau khi sử dụng deepfake để đóng giả Brad Pitt với deepfake của nam diễn viên. Những kẻ lừa đảo cũng đã gửi cho cô đoạn phim về một người dẫn chương trình truyền hình do AI tạo ra tiết lộ "mối quan hệ độc quyền của ngôi sao Hollywood với một cá nhân đặc biệt... có tên là Anne." Cô Anne tội nghiệp đã bị chế giễu vì sự ngây thơ của mình, nhưng cô không hề đơn độc khi trở thành nạn nhân của deepfake.
Năm ngoái, một cuộc tấn công deepfake đã xảy ra cứ sau năm phút, theo công ty xác minh ID Onfido. Nội dung này thường xuyên được vũ khí hóa để lừa đảo. Một nghiên cứu gần đây ước tính rằng AI thúc đẩy gần một nửa (43%) trong số tất cả các nỗ lực lừa đảo. Andrew Bud, người sáng lập và CEO của iProov, cho rằng sự leo thang này là do ba xu hướng hội tụ:
- Sự phát triển nhanh chóng của AI và khả năng tạo ra deepfake thực tế
- Sự phát triển của các mạng lưới Tội phạm dưới dạng Dịch vụ (CaaS) cung cấp quyền truy cập rẻ hơn vào các công nghệ tấn công tinh vi, có mục đích
- Tính dễ bị tổn thương của các phương pháp xác minh ID truyền thống
![1739593206827.png 1739593206827.png](https://vnrv.s3.hn-1.cloud.cmctelecom.vn/data/attachments/36/36554-8423fd452142b2d39c1802ff0e26eb13.jpg)
"Deepfake đã trở thành hàng hóa", Bud nói với TNW qua email. "Các công cụ để tạo nội dung deepfake có thể truy cập rộng rãi, rất phải chăng và tạo ra kết quả không thể phát hiện được bằng mắt thường. Nó đang tạo ra một cơn bão tội phạm mạng hoàn hảo, vì hầu hết các tổ chức thiếu các biện pháp phòng thủ đầy đủ để chống lại các cuộc tấn công này."
"Các giải pháp truyền thống và quy trình thủ công như nhận dạng video đơn giản là không thể theo kịp. Các tổ chức phải áp dụng các hệ thống sinh trắc học dựa trên khoa học kết hợp với các biện pháp phòng thủ hỗ trợ AI có thể phát hiện, phát triển cùng và ngăn chặn các cuộc tấn công này." Một số nhà cung cấp Huione thậm chí còn quảng cáo "dịch vụ thay đổi khuôn mặt" giá 200 đô la tiền điện tử.
Kể từ khi ChatGPT của OpenAI ra mắt vào năm 2022 và chứng kiến sự phổ biến của nó tăng lên, đã có ngày càng nhiều trường hợp các công ty lớn mất hàng triệu đô la vì các vụ lừa đảo deepfake. Những trò lừa đảo như vậy sử dụng AI tạo sinh để tạo ra danh tính và giọng nói tổng hợp và giả mạo cho phép những kẻ lừa đảo mạo danh người thật và vượt qua các biện pháp kiểm soát xác minh danh tính
Chainalysis nói rằng tiềm năng của công nghệ AI để mở rộng quy mô các vụ lừa đảo tiền điện tử theo cấp số nhân càng làm tăng thêm những thách thức liên quan đến việc chống lại những tội ác đó. Công ty cho biết, việc giải quyết các vụ lừa đảo tiền điện tử ở quy mô lớn sẽ đòi hỏi những nỗ lực bền vững từ các cơ quan chính phủ, cơ quan quản lý và tổ chức.
#deepfake