Mr. Macho
Writer
Azure AI Content Safety tuyên bố có thể phát hiện hình ảnh và văn bản “không phù hợp” và chỉ định điểm nghiêm trọng.
Hôm qua Microsoft đã ra mắt một công cụ kiểm duyệt nội dung được tích hợp trí tuệ nhân tạo có khả năng gắn cờ các hình ảnh và văn bản “không phù hợp” và xếp hạng mức độ nghiêm trọng. Hiện công cụ này áp dụng với 8 ngôn ngữ, và sẽ mở rộng sau này.
Azure AI Content Safety “được thiết kế để thúc đẩy cộng đồng và môi trường trực tuyến an toàn hơn”, theo Microsoft. Gã khổng lồ phần mềm nói mặc dù được tích hợp vào bảng điều khiển AI của Dịch vụ Azure OpenAI nhưng nó cũng có thể được triển khai trong các hệ thống không phải AI như nền tảng truyền thông xã hội và trò chơi nhiều người chơi.
Để tránh một số cạm bẫy phổ biến hơn khi kiểm duyệt nội dung AI, Microsoft cho phép người dùng “tinh chỉnh” các bộ lọc của Azure AI theo ngữ cảnh và xếp hạng mức độ nghiêm trọng được cho là cho phép người kiểm duyệt con người kiểm tra nhanh. Người phát ngôn giải thích rằng “một nhóm gồm các chuyên gia ngôn ngữ và công bằng” đã đưa ra các hướng dẫn cho chương trình của mình, “có tính đến văn hóa [sic], ngôn ngữ và bối cảnh”.
Người phát ngôn của Microsoft nói mô hình mới “có thể hiểu nội dung và bối cảnh văn hóa tốt hơn rất nhiều” so với các mô hình trước đó, thường không nhận ra manh mối ngữ cảnh, đánh dấu tài liệu lành tính một cách không cần thiết. Tuy nhiên, họ thừa nhận không có AI nào là hoàn hảo và “khuyến nghị sử dụng con người trong vòng lặp để xác minh kết quả” .
Công nghệ cung cấp năng lượng cho Azure AI cũng chính là mã giúp chatbot Bing AI của Microsoft không bị lừa đảo – một thực tế có thể cảnh báo những người dùng sớm của đối thủ cạnh tranh ChatGPT. Khi được giới thiệu vào tháng 2, Bing đã mắc một số vấn đề như cố gắng thuyết phục các phóng viên bỏ vợ/chồng, phủ nhận những sự thật hiển nhiên như ngày tháng năm, đe dọa hủy diệt loài người và viết lại lịch sử. Sau sự chú ý tiêu cực đáng kể của giới truyền thông, Microsoft đã giới hạn các cuộc trò chuyện trên Bing ở 5 câu hỏi mỗi phiên và 50 câu hỏi mỗi ngày.
Microsoft đã sa thải nhóm an toàn và đạo đức AI của mình vào tháng 3 ngay cả khi sự các mô hình ngôn ngữ lớn như ChatGPT đang lên cơn sốt và bản thân công ty đang đầu tư thêm hàng tỷ đô la vào quan hệ đối tác với nhà phát triển OpenAI. Công ty gần đây đã dành nhiều nhân sự hơn để theo đuổi trí tuệ nhân tạo tổng quát (AGI), trong đó một hệ thống phần mềm có khả năng nghĩ ra những ý tưởng chưa được lập trình trong đó.
Hôm qua Microsoft đã ra mắt một công cụ kiểm duyệt nội dung được tích hợp trí tuệ nhân tạo có khả năng gắn cờ các hình ảnh và văn bản “không phù hợp” và xếp hạng mức độ nghiêm trọng. Hiện công cụ này áp dụng với 8 ngôn ngữ, và sẽ mở rộng sau này.
Để tránh một số cạm bẫy phổ biến hơn khi kiểm duyệt nội dung AI, Microsoft cho phép người dùng “tinh chỉnh” các bộ lọc của Azure AI theo ngữ cảnh và xếp hạng mức độ nghiêm trọng được cho là cho phép người kiểm duyệt con người kiểm tra nhanh. Người phát ngôn giải thích rằng “một nhóm gồm các chuyên gia ngôn ngữ và công bằng” đã đưa ra các hướng dẫn cho chương trình của mình, “có tính đến văn hóa [sic], ngôn ngữ và bối cảnh”.
Người phát ngôn của Microsoft nói mô hình mới “có thể hiểu nội dung và bối cảnh văn hóa tốt hơn rất nhiều” so với các mô hình trước đó, thường không nhận ra manh mối ngữ cảnh, đánh dấu tài liệu lành tính một cách không cần thiết. Tuy nhiên, họ thừa nhận không có AI nào là hoàn hảo và “khuyến nghị sử dụng con người trong vòng lặp để xác minh kết quả” .
Công nghệ cung cấp năng lượng cho Azure AI cũng chính là mã giúp chatbot Bing AI của Microsoft không bị lừa đảo – một thực tế có thể cảnh báo những người dùng sớm của đối thủ cạnh tranh ChatGPT. Khi được giới thiệu vào tháng 2, Bing đã mắc một số vấn đề như cố gắng thuyết phục các phóng viên bỏ vợ/chồng, phủ nhận những sự thật hiển nhiên như ngày tháng năm, đe dọa hủy diệt loài người và viết lại lịch sử. Sau sự chú ý tiêu cực đáng kể của giới truyền thông, Microsoft đã giới hạn các cuộc trò chuyện trên Bing ở 5 câu hỏi mỗi phiên và 50 câu hỏi mỗi ngày.
Microsoft đã sa thải nhóm an toàn và đạo đức AI của mình vào tháng 3 ngay cả khi sự các mô hình ngôn ngữ lớn như ChatGPT đang lên cơn sốt và bản thân công ty đang đầu tư thêm hàng tỷ đô la vào quan hệ đối tác với nhà phát triển OpenAI. Công ty gần đây đã dành nhiều nhân sự hơn để theo đuổi trí tuệ nhân tạo tổng quát (AGI), trong đó một hệ thống phần mềm có khả năng nghĩ ra những ý tưởng chưa được lập trình trong đó.