OpenAI quảng bá GPT-4 như một cách để giảm bớt gánh nặng cho người kiểm duyệt nội dung

Một trong những công việc ít được biết đến nhất trong thời đại internet là công việc của người điều hành nội dung.
OpenAI quảng bá GPT-4 như một cách để giảm bớt gánh nặng cho người kiểm duyệt nội dung
Casey Newton, Adrien Chen và những người khác trước đây đã báo cáo một cách hùng hồn và đau lòng về hoàn cảnh của những người lao động này, những người có số lượng lên tới hàng nghìn người và được các mạng xã hội lớn như Facebook giao nhiệm vụ xem xét kho nội dung do người dùng tạo để phát hiện vi phạm và xóa nội dung đó khỏi danh sách cho biết. nền tảng.Nội dung mà họ tiếp xúc thường bao gồm các mô tả chi tiết và bằng chứng hình ảnh hoặc video về tình trạng tồi tệ nhất của loài người — chẳng hạn như mô tả lạm dụng tình dục trẻ em — chưa kể đến nhiều tội ác, hành động ******* và kinh hoàng khác.
Người điều hành chịu trách nhiệm xác định và xóa nội dung này đã báo cáo rằng họ đang phải vật lộn với chứng rối loạn căng thẳng sau chấn thương tâm lý (PTSD), lo lắng và nhiều bệnh tâm thần cũng như bệnh tâm lý khác do tiếp xúc với chúng.
Kiểm duyệt nội dung gánh vác AI
Nó sẽ không phải là một cải tiến của chương trình trí tuệ nhân tạo (AI) có thể gánh vác một số, hoặc thậm chí có khả năng là hầu hết, tải kiểm duyệt nội dung trực tuyến?
Đó là hy vọng của OpenAI, công ty hôm nay đã xuất bản một bài đăng trên blog trình bày chi tiết những phát hiện của mình rằng GPT-4 — mô hình ngôn ngữ lớn (LLM) công khai mới nhất tạo thành xương sống của một phiên bản ChatGPT — có thể được sử dụng hiệu quả để kiểm duyệt nội dung cho các công ty khác và các tổ chức.
“Chúng tôi tin rằng điều này mang lại một tầm nhìn tích cực hơn về tương lai của các nền tảng kỹ thuật số, nơi AI có thể giúp điều tiết lưu lượng truy cập trực tuyến theo chính sách dành riêng cho nền tảng và giảm bớt gánh nặng tinh thần cho một số lượng lớn người điều hành con người,” tác giả Lilian Weng View của OpenAI viết, Vik Goel và Andrea Vallone.
Trên thực tế, theo nghiên cứu của OpenAI, GPT-4 được đào tạo để kiểm duyệt nội dung hoạt động tốt hơn so với người kiểm duyệt là con người với mức đào tạo tối thiểu, mặc dù cả hai vẫn bị vượt trội so với các mod con người được đào tạo chuyên sâu và có kinh nghiệm.Cách kiểm duyệt nội dung của GPT-4 hoạt động
OpenAI phác thảo khung 3 bước để đào tạo LLM của mình, bao gồm ChatGPT 4, để kiểm duyệt nội dung theo chính sách đưa ra của một tổ chức giả định.
Bước đầu tiên trong quy trình bao gồm soạn thảo chính sách nội dung — có lẽ việc này do con người thực hiện, mặc dù bài đăng trên blog của OpenAI không nêu rõ điều này — sau đó xác định “bộ dữ liệu vàng” mà người điều hành con người sẽ gắn nhãn. Dữ liệu này có thể bao gồm nội dung rõ ràng vi phạm chính sách hoặc nội dung mơ hồ hơn nhưng cuối cùng vẫn bị người kiểm duyệt coi là vi phạm. Nó cũng có thể bao gồm các ví dụ về dữ liệu rõ ràng là phù hợp với các chính sách.
Dù tập dữ liệu vàng là gì, các nhãn sẽ được sử dụng để so sánh hiệu suất của mô hình AI. Bước hai là lấy mô hình, trong trường hợp này là GPT-4 và nhắc mô hình đó đọc chính sách nội dung, sau đó xem xét cùng một tập dữ liệu “vàng” và gán nhãn riêng cho mô hình đó.
Cuối cùng, một người giám sát con người sẽ so sánh nhãn của GPT-4 với nhãn do con người tạo ban đầu. Nếu có sự khác biệt hoặc ví dụ về nội dung mà GPT-4 "sai" hoặc gắn nhãn không chính xác, thì (những) người giám sát con người có thể yêu cầu GPT-4 giải thích lý do của việc gắn nhãn. Sau khi mô hình mô tả lý do của nó, con người có thể tìm ra cách viết lại hoặc làm rõ chính sách nội dung gốc để đảm bảo GPT-4 đọc được và làm theo hướng dẫn này trong tương lai.
Một sự trớ trêu đáng chú ý
Tất nhiên, có một sự trớ trêu đáng chú ý đối với việc OpenAI quảng bá GPT-4 như một cách để giảm bớt gánh nặng tinh thần cho người điều hành nội dung con người: theo các báo cáo điều tra chi tiết được công bố trên tạp chí Time và The Wall Street Journal, chính OpenAI đã thuê người điều hành nội dung con người ở Kenya thông qua các nhà thầu và nhà thầu phụ như Sama, để đọc nội dung, bao gồm cả nội dung do AI tạo và gắn nhãn nội dung đó theo mức độ nghiêm trọng của các tác hại được mô tả.
Như Time đã đưa tin, những người lao động này được trả ít hơn 2 đô la Mỹ (USD) mỗi giờ cho công việc của họ và cả hai báo cáo đều chỉ ra rằng những người lao động này đã trải qua chấn thương tâm lý và bệnh tâm thần lâu dài vì công việc đó.
“Một nhân viên Sama được giao nhiệm vụ đọc và dán nhãn văn bản cho OpenAI đã nói với Time rằng anh ấy bị ảo ảnh lặp đi lặp lại sau khi đọc mô tả bằng hình ảnh về một người đàn ông quan hệ tình dục với một con chó trước sự chứng kiến của một đứa trẻ,” bài báo của Time viết.
Gần đây, người lao động đã kiến nghị chính phủ Kenya ban hành luật mới nhằm bảo vệ và cung cấp thêm cho người điều hành nội dung.
Có lẽ sau đó, việc thúc đẩy kiểm duyệt nội dung tự động của OpenAI theo một nghĩa nào đó, là một cách để sửa đổi hoặc ngăn chặn những tác hại trong tương lai giống như những tác hại có liên quan đến việc tạo ra nó.
Tham khảo bài viết gốc tại đây:
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng

Gợi ý cộng đồng

Top