Phát hiện deepfake thời gian thực: Cách Intel Labs sử dụng AI để chống lại thông tin sai lệch

Ilke Demir của Intel giải thích cách thức hoạt động của công nghệ deepfake và lý do các nhà nghiên cứu AI cần hợp tác với các nhà nhân chủng học, nhà khoa học xã hội và nhà nghiên cứu học thuật.
Một vài năm trước, deepfakes dường như là một công nghệ mới lạ mà các nhà sản xuất dựa vào sức mạnh tính toán nghiêm túc. Ngày nay, deepfakes phổ biến và có khả năng bị lạm dụng cho thông tin sai lệch, hack và các mục đích bất chính khác.
Intel Labs đã phát triển công nghệ phát hiện deepfake theo thời gian thực để giải quyết vấn đề ngày càng gia tăng này. Ilke Demir, một nhà khoa học nghiên cứu cấp cao tại Intel, giải thích công nghệ đằng sau deepfakes, phương pháp phát hiện của Intel và các cân nhắc về đạo đức liên quan đến việc phát triển và triển khai các công cụ đó.
Deepfakes là video, lời nói hoặc hình ảnh trong đó diễn viên hoặc hành động không có thật mà được tạo bởi trí tuệ nhân tạo (AI). Deepfakes sử dụng các kiến
trúc học sâu phức tạp, chẳng hạn như mạng đối thủ chung, bộ mã hóa tự động đa dạng và các mô hình AI khác, để tạo ra nội dung có độ chân thực cao và đáng tin cậy. Các mô hình này có thể tạo các tính cách tổng hợp, video hát nhép và thậm chí cả chuyển đổi văn bản thành hình ảnh, khiến việc phân biệt giữa nội dung thật và nội dung giả mạo trở nên khó khăn.
Thuật ngữ deepfake đôi khi được áp dụng cho nội dung xác thực đã bị thay đổi, chẳng hạn như video năm 2019 của cựu Chủ tịch Hạ viện Nancy Pelosi, được chỉnh sửa để khiến bà ấy có vẻ say.
Nhóm của Demir kiểm tra deepfakes tính toán, là các dạng nội dung tổng hợp do máy tạo ra. Ông nói: “Lý do nó được gọi là deepfake là vì có kiến trúc học sâu phức tạp này trong AI tạo ra tất cả nội dung đó.
Tội phạm mạng và những kẻ xấu khác thường lạm dụng công nghệ deepfake. Một số trường hợp sử dụng bao gồm thông tin sai lệch về chính trị, nội dung người lớn có người nổi tiếng hoặc cá nhân không đồng ý, thao túng thị trường và mạo danh để kiếm tiền. Những tác động tiêu cực này nhấn mạnh sự cần thiết của các phương pháp phát hiện deepfake hiệu quả.
Intel Labs đã phát triển một trong những nền tảng phát hiện deepfake thời gian thực đầu tiên trên thế giới. Thay vì tìm kiếm các đồ tạo tác giả, công nghệ này tập trung vào việc phát hiện những gì là thật, chẳng hạn như nhịp tim. Sử dụng một kỹ thuật gọi là quang tâm đồ -- hệ thống phát hiện phân tích sự thay đổi màu sắc trong tĩnh mạch do hàm lượng oxy, có thể nhìn thấy bằng máy tính -- công nghệ có thể phát hiện xem một nhân cách là người thật hay nhân tạo.
Demir cho biết: "Chúng tôi đang cố gắng xem xét đâu là thực tế và xác thực. Nhịp tim là một trong những [tín hiệu]". "Vì vậy, khi tim bạn bơm máu, nó sẽ đi đến các tĩnh mạch của bạn, và các tĩnh mạch sẽ đổi màu do hàm lượng oxy khiến màu đó thay đổi. Mắt chúng ta không thể nhìn thấy điều đó; tôi không thể chỉ nhìn vào video này và thấy nhịp tim của bạn. Nhưng sự thay đổi màu sắc đó có thể nhìn thấy bằng máy tính."
Công nghệ phát hiện deepfake của Intel đang được triển khai trên nhiều lĩnh vực và nền tảng khác nhau, bao gồm các công cụ truyền thông xã hội, cơ quan báo chí, đài truyền hình, công cụ tạo nội dung, công ty khởi nghiệp và tổ chức phi lợi nhuận. Bằng cách tích hợp công nghệ vào quy trình làm việc của họ, các tổ chức này có thể xác định và giảm thiểu tốt hơn sự lây lan của deepfakes và thông tin sai lệch.
Mặc dù có khả năng bị lạm dụng nhưng công nghệ deepfake có những ứng dụng hợp pháp. Một trong những cách sử dụng ban đầu là tạo hình đại diện để thể hiện tốt hơn các cá nhân trong môi trường kỹ thuật số. Demir đề cập đến một trường hợp sử dụng cụ thể có tên là "MyFace, MyChoice", tận dụng deepfakes để nâng cao quyền riêng tư trên các nền tảng trực tuyến.
Nói một cách đơn giản, phương pháp này cho phép các cá nhân kiểm soát sự xuất hiện của họ trong các bức ảnh trực tuyến, thay thế khuôn mặt của họ bằng một "deepfake khác biệt về mặt định lượng" nếu họ muốn tránh bị nhận ra. Các biện pháp kiểm soát này giúp tăng cường quyền riêng tư và kiểm soát danh tính của một người, giúp chống lại các thuật toán nhận dạng khuôn mặt tự động.
Đảm bảo phát triển và triển khai các công nghệ AI có đạo đức là rất quan trọng. Nhóm Truyền thông đáng tin cậy của Intel hợp tác với các nhà nhân chủng học, nhà khoa học xã hội và nhà nghiên cứu người dùng để đánh giá và tinh chỉnh công nghệ. Công ty cũng có Hội đồng AI có trách nhiệm, nơi đánh giá các hệ thống AI về các nguyên tắc có trách nhiệm và đạo đức, bao gồm các thành kiến, hạn chế tiềm ẩn và các trường hợp sử dụng có hại có thể xảy ra. Cách tiếp cận đa ngành này giúp đảm bảo rằng các công nghệ AI, như phát hiện deepfake, mang lại lợi ích cho con người hơn là gây hại.
Dimer nói: “Chúng tôi có những người làm luật, chúng tôi có các nhà khoa học xã hội, chúng tôi có các nhà tâm lý học và tất cả họ đang cùng nhau xác định những hạn chế để tìm ra liệu có sự thiên vị hay không -- sự thiên vị thuật toán, sự thiên vị hệ thống, sự thiên vị dữ liệu, bất kỳ loại thiên vị nào”. . Nhóm quét mã để tìm "bất kỳ trường hợp sử dụng nào có thể có của một công nghệ có thể gây hại cho con người."
Tham khảo bài viết gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top