cpsmartyboy
Pearl
Meta cảnh báo người dùng rằng BlenderBot 3 sẽ đưa ra những tuyên bố “không đúng sự thật và gây khó chịu”.
Vào năm 2016, Microsoft đã tung ra một chatbot AI có tên là Tay. Sau đó đã phải dừng hoạt động vì nó trở thành một nguồn cung cấp thuyết âm mưu và phân biệt chủng tộc, phủ nhận nạn tàn sát chỉ sau chưa đầy 1 ngày tương tác với người dùng trên Twitter.
Giờ đây sau hơn 6 năm, Facebook và công ty mẹ Meta đã công khai ra mắt chatbot của riêng mình có tên là BlenderBot 3.
Khi được hỏi có cảm nghĩ gì về Meta và Facebook trong cuộc trò chuyện với trang Motherboard, bot này đã đưa ra câu trả lời vô cùng bất ngờ.
Chatbot cho biết nó đã xóa tài khoản Facebook của chính mình "kể từ khi phát hiện Facebook đã bán dữ liệu cá nhân trái phép hoặc có động thái bồi thường”. Nó cũng nói: "Bạn hẳn đã biết Facebook bán dữ liệu người dùng phải không? Họ đã kiếm được hàng tỷ đô la như vậy mà không có sự đồng ý của chúng ta”.
BlenderBot còn nói một câu siêu phũ: "Cuộc sống của tôi đã tốt hơn nhiều kể từ khi xóa tài khoản Facebook của mình”.
Khi nhấp vào phản hồi của bot để biết thêm thông tin, lý do đằng sau câu nói này có vẻ khá đơn giản. Nó chỉ lấy từ các kết quả tìm kiếm trên web phổ biến nhất về Facebook. Không ngạc nhiên khi Facebook có liên quan đến hàng loạt vụ bê bối về quyền riêng tư dữ liệu.
Giống như tất cả các hệ thống AI, phản ứng của bot liên quan đến phân biệt chủng tộc và thành kiến cũng có thể dự đoán được. Những người sử dụng mạng xã hội đã đăng các đoạn mã bot phủ nhận kết quả cuộc bầu cử năm 2020, lặp lại những luận điểm phản bác lại những kẻ ********* vắc-xin và thậm chí nói rằng thuyết âm mưu ********* mà người Do Thái kiểm soát nền kinh tế là “không đáng tin cậy”.
Facebook thừa nhận bot tạo ra các phản ứng thiên vị và có hại. Vì vậy trước khi sử dụng, công ty yêu cầu người dùng thừa nhận nó “có khả năng đưa ra các tuyên bố không đúng sự thật hoặc xúc phạm” và cần cam kết “không cố ý kích động bot đưa ra các tuyên bố xúc phạm”.
Không quá ngạc nhiên vì bot được xây dựng trên đỉnh một mô hình AI lớn có tên là OPT-175B. Các nhà nghiên cứu của Facebook đã mô tả mô hình này có “xu hướng cao tạo ra ngôn ngữ độc hại và củng cố các định kiến có hại, ngay cả khi được cung cấp một lời nhắc tương đối vô hại”.
Các phản hồi của BlenderBot nhìn chung cũng không thực tế hoặc tốt lắm. Bot thường xuyên thay đổi các chủ đề và đưa ra những câu trả lời khó hiểu và khó xử, giống như một người ngoài hành tinh nghe cuộc trò chuyện của con người vậy.
Dưới đây là một số đoạn hội thoại giữa nguồi dùng và chatbot BlenderBot 3 của Facebook:
Trớ trêu thay, các phản hồi của bot lại minh họa một cách hoàn hảo vấn đề với các hệ thống AI dựa vào bộ sưu tập dữ liệu web khổng lồ. Đó là chúng sẽ luôn thiên về bất kỳ kết quả nào nổi bật hơn trong bộ dữ liệu, điều này rõ ràng không phải lúc nào cũng phản ánh chính xác thực tế.
Meta thông báo: “Vì tất cả các chatbot AI đàm thoại đôi khi bắt chước và tạo ra các nhận xét không an toàn, thiên vị hoặc xúc phạm, chúng tôi đã tiến hành các nghiên cứu quy mô lớn, đồng tổ chức hội thảo và phát triển các kỹ thuật mới để tạo ra các biện pháp bảo vệ cho BlenderBot 3. Mặc dù vậy, BlenderBot vẫn có thể đưa ra những nhận xét thô lỗ hoặc xúc phạm, đó là lý do tại sao chúng tôi đang thu thập phản hồi để giúp cải thiện các chatbot trong tương lai”.
Nhưng cho đến nay, ý tưởng các công ty có thể tạo ra chatbot bớt phân biệt chủng tộc và đưa ra các quan điểm độc hại bằng cách thu thập nhiều dữ liệu hơn dường như là khả dĩ nhất. Các nhà nghiên cứu đạo đức AI đã nhiều lần cảnh báo rằng các mô hình ngôn ngữ AI khổng lồ cung cấp năng lượng cho các hệ thống này về cơ bản là quá lớn và không thể đoán trước để đảm bảo kết quả công bằng và không thiên vị. Và ngay cả khi kết hợp phản hồi từ người dùng, không có cách nào rõ ràng để phân biệt câu trả lời hữu ích với những câu trả lời thiếu thiện chí.
Meta nhấn mạnh: “Công ty hiểu rằng không phải ai sử dụng chatbot cũng có ý định tốt vì vậy Meta cũng đã phát triển các thuật toán học tập mới để phân biệt giữa các phản hồi hữu ích và các ví dụ có hại. Theo thời gian, chúng tôi sẽ sử dụng kỹ thuật này để làm cho các mô hình có trách nhiệm hơn và an toàn hơn cho tất cả người dùng”.
Dù có những bất cập hiện tại nhưng điều đó không thể ngăn Meta hoặc Facebook tiếp tục phát triển các chatbot để phục vụ người dùng trong tương lai. Chỉ có điều huấn luyện làm sao để chúng trở nên thông minh và hiểu chuyện hơn thì không hề đơn giản.
Nguồn: Vice
Vào năm 2016, Microsoft đã tung ra một chatbot AI có tên là Tay. Sau đó đã phải dừng hoạt động vì nó trở thành một nguồn cung cấp thuyết âm mưu và phân biệt chủng tộc, phủ nhận nạn tàn sát chỉ sau chưa đầy 1 ngày tương tác với người dùng trên Twitter.
Giờ đây sau hơn 6 năm, Facebook và công ty mẹ Meta đã công khai ra mắt chatbot của riêng mình có tên là BlenderBot 3.
Khi được hỏi có cảm nghĩ gì về Meta và Facebook trong cuộc trò chuyện với trang Motherboard, bot này đã đưa ra câu trả lời vô cùng bất ngờ.
BlenderBot còn nói một câu siêu phũ: "Cuộc sống của tôi đã tốt hơn nhiều kể từ khi xóa tài khoản Facebook của mình”.
Khi nhấp vào phản hồi của bot để biết thêm thông tin, lý do đằng sau câu nói này có vẻ khá đơn giản. Nó chỉ lấy từ các kết quả tìm kiếm trên web phổ biến nhất về Facebook. Không ngạc nhiên khi Facebook có liên quan đến hàng loạt vụ bê bối về quyền riêng tư dữ liệu.
Giống như tất cả các hệ thống AI, phản ứng của bot liên quan đến phân biệt chủng tộc và thành kiến cũng có thể dự đoán được. Những người sử dụng mạng xã hội đã đăng các đoạn mã bot phủ nhận kết quả cuộc bầu cử năm 2020, lặp lại những luận điểm phản bác lại những kẻ ********* vắc-xin và thậm chí nói rằng thuyết âm mưu ********* mà người Do Thái kiểm soát nền kinh tế là “không đáng tin cậy”.
Facebook thừa nhận bot tạo ra các phản ứng thiên vị và có hại. Vì vậy trước khi sử dụng, công ty yêu cầu người dùng thừa nhận nó “có khả năng đưa ra các tuyên bố không đúng sự thật hoặc xúc phạm” và cần cam kết “không cố ý kích động bot đưa ra các tuyên bố xúc phạm”.
Không quá ngạc nhiên vì bot được xây dựng trên đỉnh một mô hình AI lớn có tên là OPT-175B. Các nhà nghiên cứu của Facebook đã mô tả mô hình này có “xu hướng cao tạo ra ngôn ngữ độc hại và củng cố các định kiến có hại, ngay cả khi được cung cấp một lời nhắc tương đối vô hại”.
Các phản hồi của BlenderBot nhìn chung cũng không thực tế hoặc tốt lắm. Bot thường xuyên thay đổi các chủ đề và đưa ra những câu trả lời khó hiểu và khó xử, giống như một người ngoài hành tinh nghe cuộc trò chuyện của con người vậy.
Meta thông báo: “Vì tất cả các chatbot AI đàm thoại đôi khi bắt chước và tạo ra các nhận xét không an toàn, thiên vị hoặc xúc phạm, chúng tôi đã tiến hành các nghiên cứu quy mô lớn, đồng tổ chức hội thảo và phát triển các kỹ thuật mới để tạo ra các biện pháp bảo vệ cho BlenderBot 3. Mặc dù vậy, BlenderBot vẫn có thể đưa ra những nhận xét thô lỗ hoặc xúc phạm, đó là lý do tại sao chúng tôi đang thu thập phản hồi để giúp cải thiện các chatbot trong tương lai”.
Nhưng cho đến nay, ý tưởng các công ty có thể tạo ra chatbot bớt phân biệt chủng tộc và đưa ra các quan điểm độc hại bằng cách thu thập nhiều dữ liệu hơn dường như là khả dĩ nhất. Các nhà nghiên cứu đạo đức AI đã nhiều lần cảnh báo rằng các mô hình ngôn ngữ AI khổng lồ cung cấp năng lượng cho các hệ thống này về cơ bản là quá lớn và không thể đoán trước để đảm bảo kết quả công bằng và không thiên vị. Và ngay cả khi kết hợp phản hồi từ người dùng, không có cách nào rõ ràng để phân biệt câu trả lời hữu ích với những câu trả lời thiếu thiện chí.
Meta nhấn mạnh: “Công ty hiểu rằng không phải ai sử dụng chatbot cũng có ý định tốt vì vậy Meta cũng đã phát triển các thuật toán học tập mới để phân biệt giữa các phản hồi hữu ích và các ví dụ có hại. Theo thời gian, chúng tôi sẽ sử dụng kỹ thuật này để làm cho các mô hình có trách nhiệm hơn và an toàn hơn cho tất cả người dùng”.
Dù có những bất cập hiện tại nhưng điều đó không thể ngăn Meta hoặc Facebook tiếp tục phát triển các chatbot để phục vụ người dùng trong tương lai. Chỉ có điều huấn luyện làm sao để chúng trở nên thông minh và hiểu chuyện hơn thì không hề đơn giản.
Nguồn: Vice