Thoại Viết Hoàng
Writer
Ngày 22/5/2023, một bức ảnh giả về vụ nổ ở Lầu Năm Góc đã gây náo loạn trên mạng. Chỉ trong vòng vài phút sau khi được đăng, hình ảnh giống như thật đã lan truyền trên các mạng xã hội sau khi được một số tài khoản nổi tiếng đăng lại.
Bức ảnh nhanh chóng được xác định là một trò lừa bịp, có khả năng do AI tạo ra. Nhưng trong một khoảng thời gian ngắn được lưu hành, nó đã có tác động thực sự và thậm chí còn làm rung chuyển thị trường tài chính trong một thời gian ngắn.
Đây không phải là một vấn đề hoàn toàn mới. Thông tin sai lệch trực tuyến đã tồn tại từ buổi bình minh của Internet và những hình ảnh được chỉnh sửa bằng photoshop một cách thô thiển đã đánh lừa mọi người từ rất lâu trước khi trí tuệ nhân tạo AI trở thành xu hướng. Nhưng gần đây, các công cụ như ChatGPT, DALL-E, MidjTHER và thậm chí cả các bản cập nhật tính năng AI mới cho Photoshop đã làm tăng thêm vấn đề bằng cách giúp việc tạo hình ảnh, video và văn bản giả siêu thực trên quy mô lớn dễ dàng và rẻ hơn. Do đó, chúng ta có thể thấy nhiều hình ảnh giả mạo hơn bao giờ hết.
Một báo cáo của Europol, cơ quan thực thi pháp luật của Liên minh Châu Âu, đã dự đoán rằng có tới 90% nội dung trên internet có thể được tạo hoặc chỉnh sửa bởi AI vào năm 2026. Hiện tại, các trang tin tức spam dường như hoàn toàn do AI tạo ra đang xuất hiện.
Vậy, các công ty công nghệ đang phát triển AI cần làm gì để ngăn chặn việc các công cụ của họ bị sử dụng để tạo ra thông tin sai lệch tấn công Internet?
Một cách tiếp cận mới - mà một số chuyên gia cho rằng có thể thực sự hiệu quả - là sử dụng siêu dữ liệu, hình mờ và các hệ thống kỹ thuật khác để phân biệt hàng giả với hàng thật. Các công ty như Google, Adobe và Microsoft đều đang hỗ trợ một số hình thức ghi nhãn AI trong các sản phẩm. Ví dụ, Google sẽ đính kèm một văn bản tương tự như thông báo bản quyền bên dưới các kết quả do AI tạo ra trên Google Hình ảnh. Công nghệ tạo hình ảnh của OpenAI DALL-E đã thêm một hình mờ sọc đầy màu sắc vào cuối tất cả các hình ảnh nó tạo ra.
Để giảm nhầm lẫn giữa ảnh thật và giả, nhóm sáng kiến xác thực nội dung đã phát triển một công cụ Adobe hiện đang sử dụng có tên là thông tin đăng nhập nội dung để theo dõi thời điểm hình ảnh được AI chỉnh sửa. Nó giống như một nhãn dinh dưỡng: thông tin về nội dung kỹ thuật số nằm trong tệp ở bất cứ nơi nào nó được xuất bản hoặc lưu trữ.
Các công cụ gắn nhãn AI như của Adobe vẫn đang ở giai đoạn đầu và không có nghĩa là chúng được coi là viên đạn bạc cho vấn đề thông tin sai lệch. Về mặt kỹ thuật, có thể thao tác với hình mờ hoặc siêu dữ liệu. Ngoài ra, không phải mọi hệ thống tạo AI đều muốn tiết lộ rằng nó được tạo ra theo cách đó. Với sự gia tăng của các thuyết âm mưu trực tuyến, mọi người thường bỏ qua các sự thật để tin vào những điều sai trái xác nhận niềm tin cá nhân của họ. Nhưng nếu được triển khai tốt - và đặc biệt là nếu các nhãn này được coi là trung lập hơn so với kiểm tra thực tế trên mạng xã hội truyền thống - thì việc tiết lộ AI có thể là một trong những hy vọng duy nhất để điều hướng sự phân biệt ngày càng mờ nhạt giữa phương tiện giả và thật trực tuyến.
Dưới đây là cách một số hệ thống đánh dấu AI ban đầu này có thể hoạt động, những hạn chế là gì và người dùng có thể làm gì.
Google gần đây cho biết sẽ bắt đầu đánh dấu các hình ảnh được tạo bởi hệ thống AI mới trong các tệp hình ảnh gốc. Khi bạn nhìn thấy một hình ảnh trong Tìm kiếm của Google được tạo bởi các hệ thống AI của Google, nó được gán nhãn “AI-generated with Google” bên dưới. Ngoài ra, Google đang hợp tác với các nhà xuất bản như Midjourney và trang web chụp ảnh lưu trữ Shutterstock để cho phép họ tự gắn thẻ hình ảnh là do AI tạo ra trong Google Tìm kiếm. Nếu bạn bắt gặp một hình ảnh Midjourney trong Google Tìm kiếm, nó sẽ có nhãn như “Hình ảnh do AI tạo ra”.
Đó là lý do tại sao Google cũng thêm tính năng “Giới thiệu về hình ảnh này” bên cạnh kết quả tìm kiếm hình ảnh - cho dù chúng có được gắn nhãn AI hay không - mà bạn có thể nhấp vào và xem khi nào hình ảnh được Google lập chỉ mục lần đầu, nơi hình ảnh có thể xuất hiện lần đầu và nơi khác. Giả dụ, nếu bạn tìm kiếm, chẳng hạn như “Vụ nổ Lầu Năm Góc” và thấy một loạt hình ảnh trong kết quả, bạn sẽ có thể thấy một bài báo đã được kiểm chứng thực tế vạch trần nội dung đó.
Các công ty lớn khác trong ngành cũng đang nghiên cứu về vấn đề cách gắn nhãn nội dung do AI tạo ra. Vào năm 2021, một nhóm các công ty lớn bao gồm Microsoft, Adobe, BBC và Intel đã thành lập một liên minh có tên là C2PA. Nhóm được giao nhiệm vụ giúp tạo ra một tiêu chuẩn mở có thể tương tác để các công ty chia sẻ nguồn gốc hoặc lịch sử sở hữu của một phần phương tiện truyền thông. C2PA đã tạo tiêu chuẩn mở đầu tiên vào tháng 1 năm ngoái và kể từ đó, Adobe và Microsoft đã phát hành các tính năng sử dụng tiêu chuẩn đó.
Ví dụ: nếu bạn là nhiếp ảnh gia, bạn có thể đánh dấu thời điểm chụp một bức ảnh cụ thể, người chụp và yêu cầu nhà xuất bản của bạn ký điện tử. Sau đó, trình chỉnh sửa có thể thực hiện các thay đổi đối với ảnh, ký tên lại vào ảnh bằng con dấu xác thực rằng ảnh đã được xác minh theo tiêu chuẩn C2PA. Bằng cách này, bạn biết rằng ảnh được chụp bởi một người - không phải do AI tạo ra - và biết ai đã chỉnh sửa ảnh và khi nào.
Việc biết lịch sử và nguồn gốc của một hình ảnh có khả năng giúp người dùng xác minh tính hợp pháp của bất kỳ thứ gì, từ ảnh chụp trực diện trên ứng dụng hẹn hò đến ảnh tin nóng. Nhưng để điều này hoạt động, các công ty cần áp dụng tiêu chuẩn.
Cho đến nay, hai thành viên lớn của C2PA là Adobe và Microsoft đã công bố các công cụ tích hợp tiêu chuẩn C2PA vào sản phẩm để đánh dấu nội dung do AI tạo ra. Microsoft đang gắn nhãn tất cả nội dung do AI tạo trong Bing Image Generator và Microsoft Designer, còn Adobe đang sử dụng các tiêu chuẩn C2PA trong thông tin xác thực nội dung của sản phẩm AI Firefly mới của mình.
Mặc dù các nhãn siêu dữ liệu kiểu C2PA hoạt động ngầm, nhưng một cách tiếp cận khác dành cho các hệ thống AI là thêm các hình mờ như OpenAI đã thực hiện với thanh cầu vồng ở cuối hình ảnh DALL-E. Công ty cũng đang phát triển phiên bản hình mờ cho ứng dụng ChatGPT. Tuy nhiên, thách thức là hình mờ có thể bị xóa.
Một lựa chọn không hoàn hảo khác là công nghệ có thể phát hiện nội dung do AI tạo ra sau thực tế. Vào tháng 1, OpenAI đã phát hành một công cụ cho phép kiểm tra chéo một khối văn bản để xác định xem nó có khả năng được viết bởi AI hay không. Tuy nhiên, vấn đề là công cụ này chỉ xác định chính xác 26% văn bản do AI viết mặc dù với văn bản dài hơn nó chính xác hơn đáng kể so với văn bản ngắn hơn.
Ngay cả khi các hệ thống nhận dạng và gắn cờ AI ban đầu này còn thiếu sót, thì chúng vẫn là bước đầu tiên.
Tiếp theo là gì?
Vẫn còn sớm để các nền tảng công nghệ cố gắng tự động hóa việc xác định nội dung do AI tạo ra. Tuy nhiên, cho đến khi họ xác định được một giải pháp đáng tin cậy, những người kiểm tra thực tế sẽ phải điền vào chỗ trống theo cách thủ công, loại bỏ những hình ảnh như Giáo hoàng trong chiếc áo khoác phồng hoặc âm thanh giả của các chính trị gia.
Sam Gregory, giám đốc điều hành của mạng lưới báo chí dân sự và nhân quyền Witness, cho rằng: “Việc không thể xác định hình ảnh do AI tạo ra có phải là lỗi của người dùng? Hay một người kiểm tra thực tế? Trách nhiệm giải quyết thông tin sai lệch về AI “cần thuộc về những người đang thiết kế các công cụ này, xây dựng các mô hình này và phân phối chúng”.
Trong nhiều trường hợp, không rõ chính xác quy tắc của các nền tảng truyền thông xã hội về việc cho phép nội dung do AI tạo ra là gì.
TikTok có một trong những chính sách cập nhật hơn về “phương tiện tổng hợp” hoặc phương tiện do AI tạo ra hoặc thao túng. TikTok đã làm việc với các đối tác bên ngoài như Tổ chức đối tác phi lợi nhuận trong ngành về AI để nhận phản hồi về việc tuân thủ khuôn khổ cho các hoạt động AI có trách nhiệm.
Các giải pháp công nghệ giúp mọi người tự kiểm tra tính xác thực của nội dung, chẳng hạn như hệ thống phát hiện AI và hình mờ, không thể ra đời sớm hơn. Nhưng chúng ta cần thử nghiệm các giải pháp này để xem liệu chúng có hiệu quả trong việc thay đổi suy nghĩ của mọi người khi họ gặp phải nội dung AI gây hiểu lầm hay không và những gì tiết lộ cần phải có tác động.
Những công cụ mới này gắn nhãn nội dung do AI tạo ra, mặc dù không hoàn hảo, nhưng có thể giúp giảm thiểu một số rủi ro đó. Hãy hy vọng các công ty công nghệ tiến lên với tốc độ cần thiết để khắc phục các sự cố xảy ra với AI nhanh chóng ngay khi chúng được tạo ra.
Bức ảnh nhanh chóng được xác định là một trò lừa bịp, có khả năng do AI tạo ra. Nhưng trong một khoảng thời gian ngắn được lưu hành, nó đã có tác động thực sự và thậm chí còn làm rung chuyển thị trường tài chính trong một thời gian ngắn.
Một báo cáo của Europol, cơ quan thực thi pháp luật của Liên minh Châu Âu, đã dự đoán rằng có tới 90% nội dung trên internet có thể được tạo hoặc chỉnh sửa bởi AI vào năm 2026. Hiện tại, các trang tin tức spam dường như hoàn toàn do AI tạo ra đang xuất hiện.
Vậy, các công ty công nghệ đang phát triển AI cần làm gì để ngăn chặn việc các công cụ của họ bị sử dụng để tạo ra thông tin sai lệch tấn công Internet?
Một cách tiếp cận mới - mà một số chuyên gia cho rằng có thể thực sự hiệu quả - là sử dụng siêu dữ liệu, hình mờ và các hệ thống kỹ thuật khác để phân biệt hàng giả với hàng thật. Các công ty như Google, Adobe và Microsoft đều đang hỗ trợ một số hình thức ghi nhãn AI trong các sản phẩm. Ví dụ, Google sẽ đính kèm một văn bản tương tự như thông báo bản quyền bên dưới các kết quả do AI tạo ra trên Google Hình ảnh. Công nghệ tạo hình ảnh của OpenAI DALL-E đã thêm một hình mờ sọc đầy màu sắc vào cuối tất cả các hình ảnh nó tạo ra.
Để giảm nhầm lẫn giữa ảnh thật và giả, nhóm sáng kiến xác thực nội dung đã phát triển một công cụ Adobe hiện đang sử dụng có tên là thông tin đăng nhập nội dung để theo dõi thời điểm hình ảnh được AI chỉnh sửa. Nó giống như một nhãn dinh dưỡng: thông tin về nội dung kỹ thuật số nằm trong tệp ở bất cứ nơi nào nó được xuất bản hoặc lưu trữ.
Các công cụ gắn nhãn AI như của Adobe vẫn đang ở giai đoạn đầu và không có nghĩa là chúng được coi là viên đạn bạc cho vấn đề thông tin sai lệch. Về mặt kỹ thuật, có thể thao tác với hình mờ hoặc siêu dữ liệu. Ngoài ra, không phải mọi hệ thống tạo AI đều muốn tiết lộ rằng nó được tạo ra theo cách đó. Với sự gia tăng của các thuyết âm mưu trực tuyến, mọi người thường bỏ qua các sự thật để tin vào những điều sai trái xác nhận niềm tin cá nhân của họ. Nhưng nếu được triển khai tốt - và đặc biệt là nếu các nhãn này được coi là trung lập hơn so với kiểm tra thực tế trên mạng xã hội truyền thống - thì việc tiết lộ AI có thể là một trong những hy vọng duy nhất để điều hướng sự phân biệt ngày càng mờ nhạt giữa phương tiện giả và thật trực tuyến.
Dưới đây là cách một số hệ thống đánh dấu AI ban đầu này có thể hoạt động, những hạn chế là gì và người dùng có thể làm gì.
Trong siêu dữ liệu
Khi bạn xem một hình ảnh trên mạng, rất có thể bạn không biết bức ảnh đó đến từ đâu - chứ chưa nói đến việc nó được tạo ra bởi AI. Nhưng bên dưới vỏ bọc, thường có một dạng siêu dữ liệu hoặc thông tin được liên kết với tệp hình ảnh kỹ thuật số, cho bạn biết các chi tiết cơ bản, chẳng hạn như ảnh được chụp khi nào và ở đâu. Một số công ty công nghệ hiện đang bắt đầu thêm siêu dữ liệu cụ thể về AI vào sản phẩm tại thời điểm tạo và công khai thông tin đó nhằm giúp người dùng xác định tính xác thực.Google gần đây cho biết sẽ bắt đầu đánh dấu các hình ảnh được tạo bởi hệ thống AI mới trong các tệp hình ảnh gốc. Khi bạn nhìn thấy một hình ảnh trong Tìm kiếm của Google được tạo bởi các hệ thống AI của Google, nó được gán nhãn “AI-generated with Google” bên dưới. Ngoài ra, Google đang hợp tác với các nhà xuất bản như Midjourney và trang web chụp ảnh lưu trữ Shutterstock để cho phép họ tự gắn thẻ hình ảnh là do AI tạo ra trong Google Tìm kiếm. Nếu bạn bắt gặp một hình ảnh Midjourney trong Google Tìm kiếm, nó sẽ có nhãn như “Hình ảnh do AI tạo ra”.
Đó là lý do tại sao Google cũng thêm tính năng “Giới thiệu về hình ảnh này” bên cạnh kết quả tìm kiếm hình ảnh - cho dù chúng có được gắn nhãn AI hay không - mà bạn có thể nhấp vào và xem khi nào hình ảnh được Google lập chỉ mục lần đầu, nơi hình ảnh có thể xuất hiện lần đầu và nơi khác. Giả dụ, nếu bạn tìm kiếm, chẳng hạn như “Vụ nổ Lầu Năm Góc” và thấy một loạt hình ảnh trong kết quả, bạn sẽ có thể thấy một bài báo đã được kiểm chứng thực tế vạch trần nội dung đó.
Các công ty lớn khác trong ngành cũng đang nghiên cứu về vấn đề cách gắn nhãn nội dung do AI tạo ra. Vào năm 2021, một nhóm các công ty lớn bao gồm Microsoft, Adobe, BBC và Intel đã thành lập một liên minh có tên là C2PA. Nhóm được giao nhiệm vụ giúp tạo ra một tiêu chuẩn mở có thể tương tác để các công ty chia sẻ nguồn gốc hoặc lịch sử sở hữu của một phần phương tiện truyền thông. C2PA đã tạo tiêu chuẩn mở đầu tiên vào tháng 1 năm ngoái và kể từ đó, Adobe và Microsoft đã phát hành các tính năng sử dụng tiêu chuẩn đó.
Ví dụ: nếu bạn là nhiếp ảnh gia, bạn có thể đánh dấu thời điểm chụp một bức ảnh cụ thể, người chụp và yêu cầu nhà xuất bản của bạn ký điện tử. Sau đó, trình chỉnh sửa có thể thực hiện các thay đổi đối với ảnh, ký tên lại vào ảnh bằng con dấu xác thực rằng ảnh đã được xác minh theo tiêu chuẩn C2PA. Bằng cách này, bạn biết rằng ảnh được chụp bởi một người - không phải do AI tạo ra - và biết ai đã chỉnh sửa ảnh và khi nào.
Việc biết lịch sử và nguồn gốc của một hình ảnh có khả năng giúp người dùng xác minh tính hợp pháp của bất kỳ thứ gì, từ ảnh chụp trực diện trên ứng dụng hẹn hò đến ảnh tin nóng. Nhưng để điều này hoạt động, các công ty cần áp dụng tiêu chuẩn.
Cho đến nay, hai thành viên lớn của C2PA là Adobe và Microsoft đã công bố các công cụ tích hợp tiêu chuẩn C2PA vào sản phẩm để đánh dấu nội dung do AI tạo ra. Microsoft đang gắn nhãn tất cả nội dung do AI tạo trong Bing Image Generator và Microsoft Designer, còn Adobe đang sử dụng các tiêu chuẩn C2PA trong thông tin xác thực nội dung của sản phẩm AI Firefly mới của mình.
Mặc dù các nhãn siêu dữ liệu kiểu C2PA hoạt động ngầm, nhưng một cách tiếp cận khác dành cho các hệ thống AI là thêm các hình mờ như OpenAI đã thực hiện với thanh cầu vồng ở cuối hình ảnh DALL-E. Công ty cũng đang phát triển phiên bản hình mờ cho ứng dụng ChatGPT. Tuy nhiên, thách thức là hình mờ có thể bị xóa.
Một lựa chọn không hoàn hảo khác là công nghệ có thể phát hiện nội dung do AI tạo ra sau thực tế. Vào tháng 1, OpenAI đã phát hành một công cụ cho phép kiểm tra chéo một khối văn bản để xác định xem nó có khả năng được viết bởi AI hay không. Tuy nhiên, vấn đề là công cụ này chỉ xác định chính xác 26% văn bản do AI viết mặc dù với văn bản dài hơn nó chính xác hơn đáng kể so với văn bản ngắn hơn.
Ngay cả khi các hệ thống nhận dạng và gắn cờ AI ban đầu này còn thiếu sót, thì chúng vẫn là bước đầu tiên.
Tiếp theo là gì?
Vẫn còn sớm để các nền tảng công nghệ cố gắng tự động hóa việc xác định nội dung do AI tạo ra. Tuy nhiên, cho đến khi họ xác định được một giải pháp đáng tin cậy, những người kiểm tra thực tế sẽ phải điền vào chỗ trống theo cách thủ công, loại bỏ những hình ảnh như Giáo hoàng trong chiếc áo khoác phồng hoặc âm thanh giả của các chính trị gia.
Sam Gregory, giám đốc điều hành của mạng lưới báo chí dân sự và nhân quyền Witness, cho rằng: “Việc không thể xác định hình ảnh do AI tạo ra có phải là lỗi của người dùng? Hay một người kiểm tra thực tế? Trách nhiệm giải quyết thông tin sai lệch về AI “cần thuộc về những người đang thiết kế các công cụ này, xây dựng các mô hình này và phân phối chúng”.
Trong nhiều trường hợp, không rõ chính xác quy tắc của các nền tảng truyền thông xã hội về việc cho phép nội dung do AI tạo ra là gì.
TikTok có một trong những chính sách cập nhật hơn về “phương tiện tổng hợp” hoặc phương tiện do AI tạo ra hoặc thao túng. TikTok đã làm việc với các đối tác bên ngoài như Tổ chức đối tác phi lợi nhuận trong ngành về AI để nhận phản hồi về việc tuân thủ khuôn khổ cho các hoạt động AI có trách nhiệm.
Các giải pháp công nghệ giúp mọi người tự kiểm tra tính xác thực của nội dung, chẳng hạn như hệ thống phát hiện AI và hình mờ, không thể ra đời sớm hơn. Nhưng chúng ta cần thử nghiệm các giải pháp này để xem liệu chúng có hiệu quả trong việc thay đổi suy nghĩ của mọi người khi họ gặp phải nội dung AI gây hiểu lầm hay không và những gì tiết lộ cần phải có tác động.
Những công cụ mới này gắn nhãn nội dung do AI tạo ra, mặc dù không hoàn hảo, nhưng có thể giúp giảm thiểu một số rủi ro đó. Hãy hy vọng các công ty công nghệ tiến lên với tốc độ cần thiết để khắc phục các sự cố xảy ra với AI nhanh chóng ngay khi chúng được tạo ra.