VnReview
Hà Nội

Văn bản do AI tự viết ra là thứ deepfake đáng sợ nhất trên đời

Nếu bạn cho rằng hình ảnh hay âm thanh tổng hợp đã khá tồi tệ, thì những thứ được viết ra bởi máy móc - một khi trở nên phổ biến và không thể phát hiện được - sẽ còn kinh khủng hơn nhiều.

Khi các học giả và nhà nghiên cứu tìm cách phán đoán những loại hình chiến dịch lôi kéo nào có khả năng đe doạ kết quả của các cuộc bầu cử năm 2018 và 2020, những đoạn video gây hiểu lầm do AI tạo ra thường xếp đầu danh sách. Dù công nghệ mà chúng ta gọi là "deepfake" lúc này mới bắt đầu nổi lên, khả năng nó bị lạm dụng đáng báo động đến nỗi các công ty công nghệ và các phòng thí nghiệm học thuật phải xem việc nghiên cứu và tài trợ nhằm tạo ra những phương thức phát hiện chúng làm ưu tiên hàng đầu. Các nền tảng mạng xã hội cũng đưa ra những chính sách đặc biệt áp dụng lên các bài đăng có chứa "nội dung phương tiện tổng hợp và có tính chất thao túng", với hi vọng có thể duy trì sự cân bằng giữa việc bảo toàn quyền tự do biểu đạt và ngăn chặn phát tán những thông tin sai lệch có thể gây sốt. Nhưng nay, khi chỉ còn khoảng 3 tháng nữa là đến ngày bầu cử Tổng thống Mỹ, thì một dạng nội dung phương tiện do AI tạo ra khác lại đang trở thành đề tài nóng: một dạng khó phát hiện hơn, và nhiều khả năng sẽ trở thành một thế lực phủ sóng rộng khắp internet - văn bản deepfake.

Vào tháng trước, GPT-3 xuất hiện. Được xem là biên giới tiếp theo của viết văn tạo sinh, đây là một AI có khả năng cho ra những câu văn viết đậm chất con người (đôi lúc là siêu thực) đến khó tin. Khi mà kết quả nó cho ra ngày càng khó phân biệt với các văn bản viết bởi con người, chúng ta có thể hình dung một tương lai trong đó đại đa số các nội dung được viết ra mà chúng ta thấy trên internet đều sẽ là tác phẩm của máy móc. Nếu điều đó xảy ra, nó sẽ thay đổi phương thức chúng ta phản ứng với những nội dung xung quanh mình như thế nào?

Đây không phải là lần đầu tiên xuất hiện một loại hình phương tiện mới, hứa hẹn mang lại những thay đổi khiến cảm nhận của chúng ta về những thứ được xem là thực thay đổi hoàn toàn. Khi Photoshop, After Effects, và các công cụ chỉnh sửa hình ảnh và CGI bắt đầu nổi lên từ 3 thập kỷ trước, tiềm năng biến hoá của chúng đối với hoạt động nghệ thuật - cũng như tác động của chúng lên nhận thức của chúng ta về thế giới - ngay lập tức được nhận diện. "Adobe Photoshop là chương trình có tác động to lớn nhất trong lịch sử ngành xuất bản" - một bài viết trên Macworld vào năm 2000 nhận định như vậy trong khi công bố Photoshop 6.0. "Ngày nay, các nghệ sỹ hoàn thiện tác phẩm bằng cách photoshop chúng, và các tạp chí khiêu dâm sẽ chẳng có gì để mang lại cho đọc giả trừ hiện thực trần trụi nếu họ không photoshop từng tấm ảnh của mình".

Chúng ta dần chấp nhận công nghệ đó theo đúng bản chất của nó, và hình thành một thái đồ hoài nghi thường trực. Rất ít người hiện nay tin rằng vẻ ngoài của một người mẫu xuất hiện trên ảnh bìa tạp chí chính là vẻ ngoài thực sự của họ (trên thực tế, những nội dung chưa qua photoshop mới là thứ thu hút được sự chú ý của công chúng). Ấy thế nhưng chúng ta vẫn không hoàn toàn hoài nghi những bức ảnh đó: dù thỉnh thoảng lại nổ ra những cuộc tranh luận nảy lửa về tác động của việc chỉnh sửa hình ảnh - hay sử dụng các bộ lọc - chúng ta vẫn tin bức ảnh đó cho thấy một con người thực được chụp vào một khoảnh khắc cụ thể. Chúng ta hiểu rằng mỗi bức ảnh đều xuất phát từ thực tế.

Phương tiện được tạo sinh, như một video deepfake hay kết quả do GPT-3 xuất ra, lại khác. Nếu bị sử dụng cho mục đích xấu, sẽ không có phương tiện gốc chưa chỉnh sửa, không có sản phẩm thô dùng để so sánh hoặc làm bằng chứng khi cần xác thực. Vào đầu thập niên 2000, rất dễ để mổ xẻ những bức ảnh trước và sau chỉnh sửa của người nổi tiếng và thảo luận liệu ảnh sau có tạo ra những quan niệm phi thực tế về sự hoàn hảo. Ở năm 2020, chúng ta gặp ngày càng nhiều những khuôn mặt người nổi tiếng bị tráo vào các nội dung khiêu dâm, và những đoạn clip trong đó các lãnh đạo thế giới phát biểu những thứ họ chưa bao giờ nói trước đó. Chúng ta sẽ phải điều chỉnh, và thích ứng, với một cấp độ phi thực tế mới. Kể cả các nền tảng phương tiện cũng nhận ra sự khác biệt này; các chính sách kiểm duyệt deepfake của họ phân biệt được giữa nội dung phương tiện tổng hợp và một nội dung "đã qua chỉnh sửa" đơn giản.

Để kiểm duyệt nội dung deepfake, bạn phải biết trước đó là nội dung đã qua chỉnh sửa. Trong các dạng deepfake hiện tại, các đoạn video là nội dung dễ phát hiện nhất. Video tạo ra bởi AI thường có những dấu hiệu số thể hiện trong việc nội dung xuất ra có phần kém tự nhiên: những "đặc điểm sinh trắc mềm" như chuyển động khuôn mặt của một người không được thể hiện; một chiếc khuyên tai hay vài cái răng được dựng hình một cách nghèo nàn; hay nhịp tim của một người, phát hiện được thông qua những thay đổi nhỏ trong màu sắc, không hề hiện diện. Nhiều trong số những manh mối đó có thể được khắc phục bằng cách dùng phần mềm. Ví dụ, trong các video deepfake vào năm 2018, những cú chớp mắt của các chủ thể thường bị sai; nhưng chỉ một thời gian ngắn sau khi người ta phát hiện và công bố vấn đề, nó đã được khắc phục. Các đoạn âm thanh tạo sinh có thể tinh vi hơn - không có yếu tố thị giác, do đó có ít cơ hội cho sai sót hơn - nhưng những nỗ lực nghiên cứu đầy hứa hẹn hiện đang được thực hiện nhằm phát hiện được chúng. Cuộc chiến giữa những kẻ chuyên làm hàng giả và đội ngũ xác thực viên sẽ tiếp tục diễn ra chưa có hồi kết.

Có lẽ quan trong hơn cả, công chúng đang ngày càng dè chừng trước công nghệ. Trên thực tế, sự hiểu biết đó có thể mang lại một kiểu nguy cơ khác, vừa liên quan vừa tách biệt với bản chất của các đoạn video và âm thanh tạo sinh: các chính trị gia sẽ có thể phủ nhận những đoạn video scandal có thực, nói rằng đó là sản phẩm nhân tạo chỉ bằng cách khẳng định "Đó là một deepfake!".

Nhưng văn bản tổng hợp bởi AI - cụ thể là loại văn bản đang được tạo ra hiện nay - tiềm ẩn một thách thức lớn hơn nhiều. AI có thể tạo ra văn bản tổng hợp với số lượng lớn, với những dấu hiệu cho phép chúng ta phát hiện ra chúng được giảm đi rất nhiều. Thay vì được tung ra ở những thời điểm nhạy cảm nhằm tạo ra những vụ scandal nhỏ lẻ, văn bản giả mạo có thể được sử dụng đồng loạt để thao túng cộng đồng trên quy mô rộng bằng cách ghép nối những thông tin dối trá đang lan tràn lại với nhau. Bất kỳ ai từng theo dõi những hashtag nóng trên Twitter hẳn đều nhận ra sức mạnh áp đảo của thứ gọi là "chia sẻ quan điểm". Khi thấy rất nhiều người bày tỏ cùng một góc nhìn, thông thường là vào cùng một thời điểm hay tại cùng một khu vực, những người quan sát có thể bị thuyết phục rằng mọi người đều có cảm nhận theo một cách giống nhau, mà không hề để ý đến việc những tiếng nói đó có thực sự đại diện cho một người không, hay thậm chí có phải là người thực hay không. Trong tâm lý học, đây được gọi là "ảo tưởng số đông". Trong khi phải mất thời gian và công sức để thu được một lượng lớn bình luận, thì bạn có thể tạo ra vô số nội dung từ AI về bất kỳ chủ đề nào có thể hình dung được. Thật vậy, chúng ta sẽ sớm có các thuật toán đọc web, hình thành nên các "quan điểm", sau đó đăng tải những lời phản hồi của riêng chúng. Lượng bài viết vô biên gồm các nội dung mới và các bình luận liên quan, phần lớn được tạo ra bởi máy móc, sau đó sẽ được xử lý bởi những cỗ máy khác, dẫn đến một vòng lặp phản hồi làm thay đổi đáng kể hệ sinh thái thông tin của chúng ta.

Hiện nay, chúng ta có thể phát hiện những bình luận lặp lại hoặc được tái sử dụng nhiều lần, vốn sử dụng cùng một đoạn văn bản nhằm spam khu vực bình luận, thao túng độ nóng của một hashtag Twitter, hoặc thuyết phục một bộ phận người xem thông qua các bài đăng trên Facebook. Chiến thuật này đã được sử dụng trong nhiều chiến dịch thao túng đám đông trước đây. Một phân tích của Wall Street Journal về một số trường hợp như vậy đã phát hiện ra hàng trăm ngàn bình luận đáng ngờ, được xác định là do máy móc viết ra bởi chúng có chứa những câu dài, lặp đi lặp lại, không giống như được soạn thảo riêng rẽ bởi nhiều người khác nhau. Nếu những bình luận đó được tạo ra riêng rẽ - bởi một AI chẳng hạn - thì những chiến dịch thao túng đó sẽ khó bị phát hiện hơn rất nhiều.

Trong tương lai, video deepfake và audiofake sẽ được sử dụng để tạo ra những tình huống nhạy cảm, thu hút sự chú ý nhằm lôi kéo giới báo chí hoặc gây phân tâm khỏi một số vụ scandal khác. Nhưng những đoạn textfake không thể bị phát hiện - ẩn dưới những nội dung thông thường trên Twitter, Facebook, Reddit... - có thể tinh vi hơn nhiều, với độ phổ biến rộng rãi hơn, và độc địa hơn. Việc có thể tạo ra một ý kiến số đông, hay một cuộc chạy đua vũ trang gồm những kẻ bình luận ảo - với khả năng bị phát hiện rất thấp - sẽ tạo cơ hội cho những chiến dịch gây ảnh hưởng tinh vi, lâu dài. Những nội dung văn bản có độ phủ sóng cao do AI tạo ra có nguy cơ bẻ cong hệ sinh thái giao tiếp xã hội của chúng ta: các nội dung phát sinh từ thuật toán sẽ nhận được những phản hồi phát sinh từ thuật toán, sau đó được đưa vào các hệ thống kiểm duyệt bằng thuật toán vốn ưu tiên hiển thị các thông tin dựa trên mức độ tương tác của chúng.

Lòng tin của chúng ta dành cho nhau đang dần vụn vỡ, và sự phân cực quan điểm ngày càng phổ biến hơn. Khi mà các nội dung phương tiện do AI tạo ra - dù là văn bản, video, ảnh, hay âm thanh - lan rộng, và khả năng phát hiện ra chúng trở nên khó khăn hơn, chúng ta sẽ khó có thể tin tưởng được những nội dung mình đang thấy. Thích ứng với một viễn cảnh như vậy là điều không hề đơn giản, giống như những gì chúng ta đã làm với Photoshop, bằng cách sử dụng áp lực xã hội để giám sát phạm vi sử dụng của những công cụ đó, và chấp nhận rằng những nội dung phương tiện quanh chúng ta có lẽ không giống như những gì chúng thể hiện. Nhưng lần này, chúng ta còn phải học cách làm sao để trở thành những người tiêu dùng khắt khe hơn với các nội dung trực tuyến, đánh giá mọi thứ dựa trên giá trị của nó thay vì sự phổ biến.

Minh.T.T;theo Wired

Chủ đề khác