VnReview
Hà Nội

Đừng tin lời Mark Zuckerberg rằng AI sẽ cứu được Facebook!

Ông chủ Facebook hứa hẹn sẽ sử dụng trí tuệ nhân tạo để điều chỉnh các nội dung trên Facebook, nhưng sự thực thì nền tảng mạng xã hội lớn nhất thế giới cần nhiều hơn vậy.

Khi CEO Facebook Mark Zuckerberg đối mặt với các chính trị gia hàng đầu của Mỹ trong tuần vừa qua, anh đã liên tục phải trả lời những câu hỏi về các nội dung độc hại và gây hiểu lầm trên Facebook. Liệu nền tảng mạng xã hội này đã có kế hoạch nào chưa?

Theo Zuckerberg thì có: công ty đang tuyển 20.000 người từ khắp mọi nơi trên thế giới để kiểm duyệt nội dung được tạo ra bởi hơn 2 tỷ người dùng Facebook. Và trong tương lai, công việc này sẽ được xử lý bởi trí tuệ nhân tạo ở quy mô lớn.

"Chúng tôi sẽ chuyển sang một phương pháp mà những nội dung như thế này sẽ bị gắn cờ bởi các công cụ trí tuệ nhân tạo mà chúng tôi phát triển", anh nói. "Chúng tôi đã đặt ưu tiên các loại nội dung quan trọng nhất mà chúng tôi có thể xây dựng những công cụ AI cho ngày nay, như các nội dung liên quan tới khủng bố".

Zuckerberg khẳng định 99% nội dung liên quan tới khủng bố bị Facebook gỡ xuống trước khi chúng bị báo cáo. Đó là một tin đáng mừng – nhưng Zuckerberg thừa nhận nội dung này là loại dễ tìm nhất.

Điều khó khăn hơn rất nhiều chính là tìm ra những bài viết thù hận (hate speech), bắt nạt và đe dọa trên Facebook – những chủ đề phụ thuộc rất nhiều vào ngữ cảnh, thường được ngụ ý và có thể giải thích theo nhiều cách khác nhau.

Ví dụ điển hình nhất chính là việc: Google và Jigsaw, hai công ty của Alphabet, có một công cụ tên là Perspective nhằm xác định một đoạn văn bản trực tuyến có phải là "độc hại" hay không. Nhưng hệ thống này lại thường nhầm lẫn những từ có ý nghĩa tiêu cực với những bài viết thù hận và gây hại, như trang tin Quartz đã đưa tin trước đây.

Thông qua máy dò phát hiện từ ngữ này, "garbage truck" (xe rác) có 78% độc hại, trong khi "race war now" (cuộc chiến tranh chủng tộc bây giờ) chỉ là 24%. Điều này là do cách mà hình thái phổ biến nhất của trí tuệ nhân tạo ngày nay, học sâu, được đào tạo để học hỏi. Nói một cách đơn giản, một kỹ sư cho hệ thống học sâu nhiều ví dụ về những điều tốt và những điều xấu. Bằng cách phân chia riêng rẽ chúng, trí tuệ nhân tạo có thể học được mối quan hệ giữa những từ đó và xây dựng một mạng lưới phức tạp của tốt và xấu.

Nhưng hệ thống AI này chỉ có thể học hỏi từ những dữ liệu của con người một cách "máy móc". Tại thời điểm ra mắt Perspective, Jigsaw đã nói rằng những thiếu sót của hệ thống AI này là do nó thiếu các dữ liệu có nhãn này. Nó chưa nhìn thấy đủ các ví dụ về những nội dung phức tạp để có thể hiểu được rằng "cuộc chiến tranh chủng tộc" là xấu trong một vài ngữ cảnh, nhưng trong sách lịch sử hay trong một bài báo học thuật thì không.

Thách thức của Facebook là tìm ra tất cả những hoán vị về ngôn từ thù thận, bắt nạt, đe dọa và chủ nghĩa khủng bố để huấn luyện AI của họ cách tìm ra những ví dụ tương tự. Vấn đề trở nên rắc rối hơn khi không phải ai cũng có thể đồng tình điều gì khiến cho một bài đăng có hại hoặc có tính lăng mạ.

Facebook đã phải đối mặt với vấn đề này vào năm 2016, khi nền tảng mạng xã hội lớn nhất thế giới bị lạm dụng để phát tán tin giả (fake news) trong thời gian cuộc bầu cử Tổng thống Mỹ diễn ra. Tuy Zuckerberg nói rằng AI chính là vị cứu tinh cho vấn đề này, công ty vẫn đang phải tuyển thêm 20.000 người để kiểm duyệt tất cả các nội dung.

Mevan Babakar, người đứng đầu bộ phận kiểm tra sự thực tự động tại tổ chức phi lợi nhuận Full Fact cho rằng bất kể AI hay con người được sử dụng để kiểm duyệt nội dung, cả hai đều phải trả lời câu hỏi về việc ai sẽ quyết định kiểu bài viết nào là chấp nhận được.

"AI làm dấy lên những câu hỏi lớn về khả năng định nghĩa. Những lời thù hận thông thường rất dễ thấy nhưng trong một số trường hợp thì không phải mọi người đều đồng ý. Điều này cũng đúng với việc tích hợp kiểm tra sự thực với nội dung. Ai sẽ là người thực hiện những lựa chọn này, khi những lựa chọn nhỏ cũng để lại hậu quả to lớn?"

Facebook sẽ có quyền kiểm soát lớn hơn nếu họ chọn sử dụng con người để kiểm duyệt thay vì chọn các thuật toán – những thứ đưa ra quyết định không thể giải thích. Trong khi Facebook có thể loại bỏ những ví dụ rõ ràng nhất một cách dễ dàng, sẽ luôn có những quyết định khó khăn buộc con người phải đứng ra chịu trách nhiệm.

Babakar nói thêm: "Mark Zuckerberg có cơ sở khi nói rằng ‘chúng tôi sẽ có những công cụ AI có thể phát hiện các sắc thái trong 5-10 năm tới', nhưng có rất nhiều sắc thái và không phải tất cả chúng đều có thể tự động hóa".

Các nhà nghiên cứu khác không đồng tình với mốc thời gian của Zuckerberg, khẳng định những dự đoán về công nghệ luôn "nói dễ hơn làm".

Delip Rao, đồng sáng lập của Fake News Challenge và CEO của R7 Speech Sciences cho rằng tập trung vào AI như là con đường duy nhất để chống lại những lời thù hận có thể dẫn đến những ràng buộc trong suy nghĩ. Quy định, giáo dục, thiết kế nền tảng và các công cụ AI để giúp người kiểm duyệt tìm các nội dung đều là những lựa chọn khả thi thay thế cho các tiếp cận đặt AI lên hàng đầu.

"Từ những gì chúng ta đang thấy trong nghiên cứu khoa học, tôi rất hoài nghi về mốc thời gian 5-10 năm để chống lại những lời thù hận trực tuyến bằng AI/các cách tiếp cận tự động hóa. Chúng ta vẫn có thể hy vọng, nhưng cũng vẫn phải tiếp tục làm việc dưới giả định rằng đó là điều phi thực tế", ông nói.

Duy Nguyễn

Chủ đề khác