OpenAI đưa ra hướng dẫn an toàn: Ban giám đốc có quyền ngăn CEO ra mẫu mới

Ban giám đốc của công ty khởi nghiệp trí tuệ nhân tạo OpenAI sẽ có quyền phủ quyết quyết định của CEO công ty về việc tung ra phiên bản ChatGPT mới.
Vào ngày 18 tháng 12, giờ địa phương, OpenAI đã phát hành một hướng dẫn bảo mật có tên “Khuôn khổ chuẩn bị” trên trang web chính thức, trong đó quy định “theo dõi, đánh giá, dự đoán và ngăn chặn những rủi ro thảm khốc do các mô hình ngày càng mạnh mẽ mang lại”.
OpenAI giải thích rằng nghiên cứu về rủi ro của trí tuệ nhân tạo tiên tiến chưa đạt được những gì cần thiết. Để giải quyết khoảng trống này và hệ thống hóa tư duy bảo mật, OpenAI đang áp dụng phiên bản beta của Khuôn khổ chuẩn bị.
OpenAI đưa ra hướng dẫn an toàn: Ban giám đốc có quyền ngăn CEO ra mẫu mới
Ảnh chụp màn hình tệp phiên bản thử nghiệm OpenAI "Ready Framework", từ trang web chính thức
OpenAI đã thông báo trong một thông cáo báo chí rằng “Nhóm Sẵn sàng” sẽ làm việc để đảm bảo an ninh cho các mô hình trí tuệ nhân tạo tiên tiến. Nhóm sẽ liên tục đánh giá các hệ thống AI để hiểu cách chúng hoạt động trong bốn loại rủi ro khác nhau, bao gồm các vấn đề an ninh mạng tiềm ẩn, mối đe dọa hóa học, mối đe dọa hạt nhân và mối đe dọa sinh học, đồng thời nỗ lực giảm thiểu mọi tác hại mà công nghệ có thể gây ra.
Cụ thể, OpenAI đang theo dõi cái gọi là rủi ro “thảm họa”, được định nghĩa trong hướng dẫn là “bất kỳ rủi ro nào có thể dẫn đến thiệt hại kinh tế hàng trăm tỷ đô la hoặc gây thương tích nghiêm trọng hoặc thậm chí tử vong cho nhiều người”.
Được biết, OpenAI đã công bố thành lập "nhóm sẵn sàng" vào tháng 10, một trong ba nhóm độc lập của startup chịu trách nhiệm giám sát an toàn trí tuệ nhân tạo. Ngoài ra còn có “hệ thống an toàn” xem xét các sản phẩm hiện tại, chẳng hạn như GPT-4 và “siêu liên kết”, tập trung vào các hệ thống AI cực kỳ mạnh mẽ có thể ra đời trong tương lai.
Aleksander Madry dẫn đầu đội chuẩn bị. Trong một cuộc phỏng vấn với Bloomberg, Madry cho biết nhóm sẽ gửi báo cáo hàng tháng cho một nhóm cố vấn an ninh nội bộ mới, nhóm này sẽ phân tích công việc của nhóm Madry và đưa ra khuyến nghị cho CEO Sam Altman và ban giám đốc công ty.
Madry cho biết nhóm sẽ đánh giá lặp đi lặp lại mô hình trí tuệ nhân tạo tiên tiến nhất chưa được phát hành của OpenAI, xếp hạng nó là "thấp", "trung bình", "cao" hoặc "nghiêm trọng" đối với các loại nhận thức khác nhau. rủi ro. Nhóm cũng sẽ thực hiện các thay đổi để giảm thiểu những mối nguy hiểm tiềm ẩn mà họ tìm thấy trong trí tuệ nhân tạo và đo lường hiệu quả. Theo hướng dẫn an toàn mới, OpenAI sẽ chỉ tung ra các mô hình trí tuệ nhân tạo được xếp hạng “trung bình” hoặc “thấp” trong tương lai.
Điều đáng chú ý là theo các nguyên tắc an toàn, Altman và đội ngũ lãnh đạo có thể quyết định có phát hành các mô hình AI mới dựa trên các báo cáo này hay không, nhưng hội đồng quản trị có quyền hủy bỏ quyết định.
Gần đây, cuộc chiến nội bộ giữa Altman và ban giám đốc đã thu hút sự chú ý của thế giới, sau khi cuộc đấu tranh nội bộ này kết thúc, ban giám đốc đã có những thay đổi to lớn, đồng thời cũng gây ra một suy nghĩ khác về sự an toàn của trí tuệ nhân tạo.
Vào tháng 4 năm nay, một nhóm các chuyên gia và lãnh đạo ngành trí tuệ nhân tạo đã ký một bức thư ngỏ kêu gọi tạm dừng phát triển các hệ thống mạnh hơn GPT-4 trong vòng sáu tháng tới, với lý do những rủi ro tiềm ẩn của trí tuệ nhân tạo đối với xã hội. Một cuộc thăm dò do công ty tư vấn Ipsos đưa ra vào tháng 5 cho thấy hơn 2/3 người Mỹ lo lắng về những tác động tiêu cực có thể xảy ra của trí tuệ nhân tạo và 61% tin rằng nó có thể đe dọa nền văn minh nhân loại.
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top