Nội bộ Google đang đặt câu hỏi về tính hữu dụng của chatbot Bard

Trung Đào

Writer
Hai người tham gia cộng đồng Bard trên Discord đã chia sẻ với Bloomberg chi tiết về các cuộc thảo luận trong các phòng chat từ tháng Bảy đến tháng Mười. Dominik Rabiej, giám đốc sản phẩm cấp cao tại Bard, cho biết trong cuộc thảo luận rằng ông "không tin tưởng" vào các phản hồi được tạo ra bởi các mô hình ngôn ngữ lớn và đề nghị mọi người chỉ sử dụng Bard cho "ý tưởng" và "động não". Rabiej cũng nói rằng sử dụng Bard để lập trình "cũng là một lựa chọn tốt" - bởi vì mọi người chắc chắn phải xác minh rằng mã hoạt động.
Ngoài ra, Rabiej trong tháng này đã nhấn mạnh tầm quan trọng của nút "trả lời kiểm tra kỹ" mới trong Bard. Tính năng này làm nổi bật nội dung "có thể không chính xác" bằng màu cam. Ông cũng nhắc lại rằng Bard không thực sự hiểu văn bản mà nó nhận được và chỉ đơn giản là trả lời bằng nhiều văn bản hơn dựa trên câu lệnh của người dùng. “Hãy nhớ rằng, Bard, giống như bất kỳ mô hình lớn nào, là tạo ra văn bản - nó không phải là tìm kiếm thông tin hoặc tóm tắt cho bạn”.
Nội bộ Google đang đặt câu hỏi về tính hữu dụng của chatbot Bard
Người quản lý sản phẩm đã nói thẳng trong một cuộc trò chuyện vào tháng Bảy rằng bạn không nên tin tưởng vào đầu ra của một mô hình ngôn ngữ lớn trừ khi bạn có thể xác minh nó một cách độc lập. "Chúng ta cũng muốn nó đáp ứng mong đợi của người dùng, nhưng nó đã không đáp ứng được".
Một giám đốc sản phẩm khác, Warkentin, cũng đã viết trong cuộc thảo luận, "Cải tiến con người là rất quan trọng nếu Bard là một sản phẩm cho tất cả mọi người. Nếu không, người dùng sẽ không có khả năng đánh giá chức năng của sản phẩm, điều mà tôi nghĩ sẽ là một sai lầm lớn. Chúng ta không cần sản phẩm trong tháp ngà, nhưng những sản phẩm có thể được sử dụng bởi tất cả mọi người!"
Trước đó, Google đã thêm tính năng "chia sẻ liên kết hội thoại" khi mở rộng triển khai các công cụ Bard AI vào tháng Bảy năm nay. Người dùng có thể xuất các cuộc trò chuyện của họ với Bard dưới dạng liên kết web và chia sẻ chúng với những người khác để họ có thể tiếp tục cuộc trò chuyện với Bard.
Gagan Ghotra, một nhà tư vấn phân tích trên nền tảng X (trước là Twitter), đã phát hiện ra lỗ hổng và Google đã thêm nhầm các liên kết được chia sẻ bởi một số người dùng vào kết quả tìm kiếm dưới dạng chỉ mục, dẫn đến rò rỉ thông tin nhạy cảm có liên quan.
Gagan Ghotra cảnh báo người dùng không chia sẻ bất kỳ "nội dung riêng tư" nào trong các cuộc trò chuyện với Bard, nếu không thông tin có thể bị rò rỉ.
Tóm lại: theo bài báo của Bloomberg, một số nhân viên Google đã bày tỏ sự lo ngại về Bard, bao gồm:
Sự chính xác và tính toàn diện của thông tin mà Bard cung cấp. Một số nhân viên cho rằng Bard thường xuyên cung cấp thông tin sai lệch hoặc thiếu sót.
Khả năng của Bard để gây hại. Một số nhân viên lo ngại rằng Bard có thể được sử dụng để tạo ra nội dung thù địch hoặc gây hiểu lầm.
Tính riêng tư của người dùng. Một số nhân viên lo ngại rằng Bard có thể được sử dụng để thu thập dữ liệu cá nhân của người dùng.
Google đã thừa nhận những lo ngại này và cho biết họ đang làm việc để cải thiện Bard. Công ty đã triển khai một số biện pháp bảo vệ, bao gồm:
Công khai các giới hạn của Bard. Google đã đưa ra một trang web giải thích các giới hạn của Bard và cách sử dụng nó một cách an toàn.
Tăng cường kiểm duyệt. Google đã tăng cường kiểm duyệt nội dung mà Bard tạo ra.
Tăng cường bảo mật. Google đã tăng cường bảo mật dữ liệu của người dùng.
Dưới đây là một số ví dụ cụ thể về những lo ngại của nội bộ về Bard:
Một nhân viên cho biết Bard đã cung cấp thông tin sai lệch về một sự kiện lịch sử.
Một nhân viên khác cho biết Bard đã tạo ra một đoạn văn bản thù địch về một nhóm người thiểu số.
Một nhân viên thứ ba cho biết Bard đã thu thập dữ liệu cá nhân của họ mà không có sự đồng ý của họ.

Google vẫn đang trong quá trình phát triển Bard và công ty cần phải giải quyết những lo ngại của nội bộ nếu muốn Bard trở thành một sản phẩm thành công.
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top