Cuộc đua tìm cách dán nhãn AI tốt hơn

Một giao thức internet có tên C2PA sử dụng mật mã để gắn nhãn hình ảnh, video và âm thanh
Cuộc đua tìm cách dán nhãn AI tốt hơn
Bài viết này từ The Technocrat, bản tin chính sách công nghệ hàng tuần của MIT Technology Review về quyền lực, chính trị và Thung lũng Silicon. Để nhận nó trong hộp thư đến của bạn vào thứ Sáu hàng tuần, hãy đăng ký tại đây.
Gần đây tôi đã viết một câu chuyện ngắn về một dự án được hỗ trợ bởi một số công ty truyền thông và công nghệ lớn đang cố gắng giúp xác định nội dung do AI tạo ra hoặc thay đổi.
Với sự bùng nổ của văn bản, hình ảnh và video do AI tạo ra, cả các nhà lập pháp và người dùng internet bình thường đều kêu gọi sự minh bạch hơn. Mặc dù có vẻ như là một yêu cầu rất hợp lý khi chỉ cần thêm một nhãn (chính xác là như vậy), nhưng nó thực sự không phải là một điều dễ dàng và các giải pháp hiện có, chẳng hạn như phát hiện và đánh dấu mờ do AI cung cấp, có một số cạm bẫy nghiêm trọng.
Như đồng nghiệp của tôi, Melissa Heikkilä đã viết, hầu hết các giải pháp kỹ thuật hiện tại “không có cơ hội chống lại thế hệ mô hình ngôn ngữ AI mới nhất”. Tuy nhiên, cuộc đua gắn nhãn và phát hiện nội dung do AI tạo ra đang diễn ra.
Đó là lý do giao thức này xuất hiện. Bắt đầu vào năm 2021, C2PA (được đặt tên theo nhóm đã tạo ra nó, Liên minh xác thực và xác thực nội dung) là một bộ tiêu chuẩn kỹ thuật mới và mã có sẵn miễn phí giúp gắn nhãn nội dung một cách an toàn với thông tin làm rõ nguồn gốc của giao thức đó từ.
Điều này có nghĩa là một hình ảnh, chẳng hạn, được đánh dấu bằng thông tin bởi thiết bị tạo ra nó (chẳng hạn như máy ảnh điện thoại), bởi bất kỳ công cụ chỉnh sửa nào (chẳng hạn như Photoshop) và cuối cùng là bởi nền tảng truyền thông xã hội mà nó được tải lên. Theo thời gian, thông tin này tạo ra một loại lịch sử, tất cả đều được ghi lại.
Bản thân công nghệ—và cách thức mà C2PA an toàn hơn so với các giải pháp thay thế gắn nhãn AI khác—khá thú vị, mặc dù hơi phức tạp. Tôi tìm hiểu thêm về nó trong phần của mình, nhưng có lẽ dễ dàng nhất để nghĩ về nó giống như một nhãn dinh dưỡng (vốn là phép loại suy ưa thích của hầu hết những người tôi đã nói chuyện cùng). Bạn có thể xem một ví dụ về video deepfake tại đây với nhãn được tạo bởi Truepic, một thành viên sáng lập C2PA, với Revel AI.
Mounir Ibrahim, phó chủ tịch phụ trách các vấn đề công cộng của Truepic cho biết: “Ý tưởng về nguồn gốc là đánh dấu nội dung theo cách có thể tương tác và không bị giả mạo để nội dung đó có thể truyền qua internet với sự minh bạch đó, với nhãn dinh dưỡng đó”.
Khi mới ra mắt, C2PA được hỗ trợ bởi một số công ty nổi tiếng, bao gồm Adobe và Microsoft, nhưng trong sáu tháng qua, số lượng thành viên của nó đã tăng 56%. Chỉ trong tuần này, nền tảng truyền thông lớn Shutterstock đã thông báo rằng họ sẽ sử dụng C2PA để dán nhãn cho tất cả các phương tiện do AI tạo ra.
Nó dựa trên cách tiếp cận chọn tham gia, vì vậy các nhóm muốn xác minh và tiết lộ nguồn gốc của nội dung, chẳng hạn như một tờ báo hoặc nhà quảng cáo, sẽ chọn thêm thông tin đăng nhập vào một phương tiện truyền thông.
Andy Parsons, một trong những người đứng đầu dự án, làm việc cho Adobe, cho rằng mối quan tâm mới và tính cấp bách xung quanh C2PA là do sự phổ biến của AI tổng quát và kỳ vọng về luật pháp, cả ở Hoa Kỳ và Liên minh Châu Âu, sẽ yêu cầu mức độ minh bạch mới. .
Tầm nhìn rất lớn—những người có liên quan đã thừa nhận với tôi rằng thành công thực sự ở đây phụ thuộc vào việc áp dụng rộng rãi, nếu không nói là toàn cầu. Họ nói rằng họ hy vọng tất cả các công ty nội dung lớn sẽ áp dụng tiêu chuẩn này.
Vì vậy, Ibrahim nói, khả năng sử dụng là chìa khóa: “Bạn muốn đảm bảo rằng bất kể nó xuất hiện ở đâu trên internet, nó sẽ được đọc và nhập theo cùng một cách, giống như mã hóa SSL. Đó là cách bạn mở rộng quy mô một hệ sinh thái trực tuyến minh bạch hơn.”
Đây có thể là một bước phát triển quan trọng khi chúng ta bước vào mùa bầu cử ở Hoa Kỳ, khi mọi con mắt sẽ theo dõi thông tin sai lệch do AI tạo ra. Các nhà nghiên cứu của dự án cho biết họ đang chạy đua để phát hành chức năng mới và thu hút nhiều nền tảng truyền thông xã hội hơn trước cuộc tấn công dữ dội như dự kiến.
Hiện tại, C2PA hoạt động chủ yếu trên hình ảnh và video, mặc dù các thành viên nói rằng họ đang nghiên cứu cách xử lý nội dung dựa trên văn bản. Tôi đề cập đến một số thiếu sót khác của giao thức trong phần này, nhưng điều thực sự quan trọng cần hiểu là ngay cả khi việc sử dụng AI được tiết lộ, nó có thể không ngăn chặn được tác hại của thông tin sai lệch do máy tạo ra. Các nền tảng truyền thông xã hội sẽ vẫn cần quyết định có nên giữ thông tin đó trên trang web của họ hay không và người dùng sẽ phải tự quyết định xem có nên tin tưởng và chia sẻ nội dung hay không.
Nó hơi gợi nhớ đến các sáng kiến của các nền tảng công nghệ trong vài năm qua để gắn nhãn thông tin sai lệch. Facebook đã dán nhãn hơn 180 triệu bài đăng là thông tin sai lệch trước cuộc bầu cử năm 2020 và rõ ràng vẫn còn những vấn đề đáng kể. Và mặc dù C2PA không có ý định chỉ định các chỉ số về độ chính xác cho các bài đăng, nhưng rõ ràng là việc chỉ cung cấp thêm thông tin về nội dung không nhất thiết có thể cứu chúng ta khỏi chính mình.
Những gì tôi đang đọc trong tuần này
Chúng tôi đã xuất bản một lộ trình hữu ích phác thảo cách AI có thể tác động đến chính trị trong nước và những cột mốc cần theo dõi. Chẳng hạn, thật thú vị khi nghĩ về việc AI gửi hoặc đóng góp vào một lời khai công khai.
Vittoria Elliott đã viết một câu chuyện rất đúng lúc về việc hình mờ, vốn cũng nhằm mang lại sự minh bạch cho nội dung do AI tạo ra, lại không đủ để quản lý mối đe dọa của thông tin sai lệch. Cô ấy giải thích rằng các chuyên gia cho rằng Nhà Trắng cần phải làm nhiều hơn là chỉ thúc đẩy các thỏa thuận tự nguyện về AI.
Và đây là một câu chuyện khác mà tôi nghĩ là thú vị trong cuộc đua phát triển công nghệ đánh dấu chìm tốt hơn.
Nói về AI… phóng viên AI Melissa của chúng tôi cũng đã viết về một công cụ mới do các nhà nghiên cứu của MIT phát triển có thể giúp ngăn ảnh bị AI thao túng. Nó có thể giúp ngăn chặn các vấn đề như nội dung khiêu *** do AI tạo ra sử dụng ảnh thật từ những phụ nữ không có sự đồng ý.
TikTok đang lấn sâu hơn vào lĩnh vực thương mại điện tử. Các tính năng mới trên ứng dụng cho phép người dùng mua sản phẩm trực tiếp từ những người có ảnh hưởng, khiến một số người phàn nàn về nguồn cấp dữ liệu giống như tràn ngập nội dung được tài trợ. Đó là một sự phát triển hơi đáng báo động trong nền kinh tế của những người có ảnh hưởng và làm nổi bật sức mạnh bán hàng của các nền tảng truyền thông xã hội.
Các nhà nghiên cứu vẫn đang cố gắng tìm ra cách các nền tảng truyền thông xã hội và thuật toán của chúng ảnh hưởng đến niềm tin chính trị và diễn ngôn công dân của chúng ta. Tuần này, bốn nghiên cứu mới về tác động của Facebook và Instagram đối với chính trị của người dùng trong cuộc bầu cử năm 2020 cho thấy những tác động khá phức tạp. Các nghiên cứu do Đại học Texas, Đại học New York, Princeton và các tổ chức khác công bố đã phát hiện ra rằng mặc dù tin tức mà mọi người đọc trên các nền tảng cho thấy mức độ phân biệt cao theo quan điểm chính trị, nhưng việc xóa nội dung được chia sẻ lại khỏi nguồn cấp dữ liệu trên Facebook không thay đổi quan điểm chính trị niềm tin.
Quy mô của các nghiên cứu đang khiến chúng trở thành một vấn đề lớn trong thế giới học thuật tuần này, nhưng nghiên cứu đang được xem xét kỹ lưỡng vì sự hợp tác chặt chẽ của nó với Meta.
Tham khảo bài viết gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top