"Bạn gái ảo" tràn ngập trên cửa hàng GPT của OpenAI

Cửa hàng GPT rầm rộ của OpenAI, nơi cung cấp phiên bản tùy chỉnh của ChatGPT, chỉ mới mở cửa được vài ngày nhưng người dùng đã bắt đầu phá vỡ hàng loạt quy tắc. Giờ đây, những "bạn gái ảo" đang ngập tràn trên cửa hàng này.
Chỉ cần tìm kiếm "bạn gái" trên cửa hàng GPT mới, thanh kết quả của trang web sẽ ngay lập tức hiển thị ít nhất tám chatbot "bạn gái ảo", từ "Bạn gái Hàn Quốc", "Người yêu ảo" đến "Bạn gái Scarlett của bạn," "Bạn gái AI của bạn, Tsu✨."
Bạn gái ảo tràn ngập trên cửa hàng GPT của OpenAI
Bấm vào chatbot "Bạn gái ảo", người dùng sẽ nhận được những lời nhắc bắt đầu như "Cô gái trong mơ của bạn trông như thế nào?" và "Hãy chia sẻ với tôi bí mật đen tối nhất của bạn."

Vi phạm chính sách của OpenAI

Những chatbot bạn gái AI này vi phạm chính sách sử dụng của OpenAI, vừa được cập nhật khi cửa hàng GPT ra mắt hôm 10/1. Công ty cấm các GPT "dành riêng cho việc thúc đẩy tình cảm lãng mạn hoặc thực hiện các hoạt động bị kiểm soát." Không rõ chính xác các hoạt động bị kiểm soát bao gồm những gì.
Bạn gái ảo tràn ngập trên cửa hàng GPT của OpenAI
Đáng chú ý, công ty đang hướng tới mục tiêu đi trước các xung đột tiềm tàng với cửa hàng OpenAI. Thực tế, chatbot mối quan hệ ảo là những ứng dụng khá phổ biến. Tại Mỹ, 7 trong số 30 ứng dụng chatbot AI được tải xuống vào năm 2023 từ Apple hoặc Google Play store liên quan đến bạn bè, bạn gái hoặc bạn đồng hành AI, theo dữ liệu được chia sẻ với Quartz từ data.ai, một công ty phân tích ứng dụng di động.
Sự gia tăng của các ứng dụng này diễn ra trong bối cảnh thế giới nói chung đang phải đối mặt với nạn cô đơn và tách biệt. Các nghiên cứu đáng báo động cho thấy một trong hai người trưởng thành ở Mỹ cảm thấy cô đơn, các nước phát triển như Nhật Bản, Hàn Quốc,... cũng vậy. Chatbot AI có thể là thứ để người dùng có nơi giải tỏa cảm xúc, nhưng ranh giới giữa giúp đỡ và kiếm tiền trên nỗi đau của người khác là rất mong manh.
Công ty cho biết họ sử dụng kết hợp các hệ thống tự động, đánh giá của con người và báo cáo của người dùng để tìm và đánh giá các GPT có khả năng vi phạm chính sách, có thể dẫn đến các hành động như "cảnh cáo, hạn chế chia sẻ hoặc không đủ điều kiện để đưa vào cửa hàng GPT hoặc kiếm tiền."

Quá khó để quản lý AI​

Việc các quy tắc của cửa hàng GPT bị vi phạm ngay trong những ngày đầu tiên hoạt động cho thấy việc quản lý các ứng dụng trí tuệ nhân tạo khó khăn như thế nào.
Trong năm qua, các công ty công nghệ đã phát hành các công cụ AI ở chế độ "beta" và lưu ý rõ ràng rằng sản phẩm của họ có thể mắc lỗi. Chẳng hạn, trong màn hình trò chuyện ChatGPT, OpenAI có một dòng ở cuối với nội dung: "ChatGPT có thể mắc lỗi. Hãy cân nhắc việc kiểm tra thông tin quan trọng."
Đáng chú ý, các công ty công nghệ cũng nhanh chóng xem xét các vấn đề được báo cáo với AI của họ, một phần vì việc làm đúng điều này rất quan trọng trong cuộc đua thống trị lĩnh vực này.
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top