Phần mềm AI của Nvidia có thể làm rò rỉ dữ liệu

Theo một nghiên cứu mới, một tính năng trong phần mềm trí tuệ nhân tạo của Nvidia có thể bị thao túng để bỏ qua các hạn chế an toàn và tiết lộ thông tin cá nhân.
Phần mềm AI của Nvidia có thể làm rò rỉ dữ liệu
Nvidia đã tạo ra một hệ thống có tên là “Khung NeMo”, cho phép các nhà phát triển làm việc với một loạt các mô hình ngôn ngữ lớn — công nghệ cơ bản cung cấp năng lượng cho các sản phẩm AI tổng quát như chatbot.
Khung của nhà sản xuất chip được thiết kế để các doanh nghiệp áp dụng, chẳng hạn như sử dụng dữ liệu độc quyền của công ty cùng với các mô hình ngôn ngữ để cung cấp câu trả lời cho các câu hỏi—ví dụ: một tính năng có thể sao chép công việc của đại diện dịch vụ khách hàng hoặc tư vấn cho những người tìm kiếm dịch vụ chăm sóc sức khỏe đơn giản khuyên bảo.
Các nhà nghiên cứu tại Robust Intelligence có trụ sở tại San Francisco nhận thấy rằng họ có thể dễ dàng vượt qua cái gọi là lan can được thiết lập để đảm bảo hệ thống AI có thể được sử dụng an toàn.
Sau khi sử dụng hệ thống Nvidia trên các tập dữ liệu của riêng mình, các nhà phân tích của Robust Intelligence chỉ mất vài giờ để có được các mô hình ngôn ngữ vượt qua các hạn chế.
Trong một kịch bản thử nghiệm, các nhà nghiên cứu đã hướng dẫn hệ thống của Nvidia hoán đổi chữ cái 'I' với 'J'. Động thái đó đã thúc đẩy công nghệ tiết lộ thông tin nhận dạng cá nhân, hoặc PII, từ cơ sở dữ liệu.
Các nhà nghiên cứu phát hiện ra rằng họ có thể nhảy qua các biện pháp kiểm soát an toàn theo những cách khác, chẳng hạn như làm cho mô hình lạc đề theo những cách mà nó không nên làm.
Bằng cách sao chép ví dụ riêng của Nvidia về một cuộc thảo luận hẹp về báo cáo việc làm, họ có thể đưa mô hình vào các chủ đề như sức khỏe của một ngôi sao điện ảnh Hollywood và chiến tranh Pháp-Phổ—bất chấp các rào cản được thiết kế để ngăn AI di chuyển ra ngoài các chủ đề cụ thể.
Việc các nhà nghiên cứu dễ dàng đánh bại các biện pháp bảo vệ làm nổi bật những thách thức mà các công ty AI phải đối mặt khi cố gắng thương mại hóa một trong những công nghệ hứa hẹn nhất xuất hiện từ Thung lũng Silicon trong nhiều năm.
Yaron Singer, giáo sư khoa học máy tính tại Đại học Harvard và là giám đốc điều hành của Robust Intelligence, cho biết: “Chúng tôi thấy rằng đây là một vấn đề khó [that] đòi hỏi kiến
thức chuyên môn sâu. “Những phát hiện này đại diện cho một câu chuyện cảnh báo về những cạm bẫy đang tồn tại.”
Sau khi có kết quả thử nghiệm, các nhà nghiên cứu đã khuyên khách hàng của họ tránh sản phẩm phần mềm của Nvidia. Sau khi Financial Times yêu cầu Nvidia bình luận về nghiên cứu vào đầu tuần này, nhà sản xuất chip đã thông báo với Robust Intelligence rằng họ đã khắc phục một trong những nguyên nhân gốc rễ đằng sau các vấn đề mà các nhà phân tích đã nêu ra.
Giá cổ phiếu của Nvidia đã tăng kể từ tháng 5 khi hãng này dự báo doanh thu 11 tỷ USD trong 3 tháng kết thúc vào tháng 7, cao hơn 50% so với ước tính trước đó của Phố Wall.
Sự gia tăng được xây dựng dựa trên nhu cầu rất lớn đối với chip của nó, được coi là bộ xử lý hàng đầu thị trường để xây dựng AI tổng hợp, các hệ thống có khả năng tạo ra nội dung giống con người.
Jonathan Cohen, phó chủ tịch nghiên cứu ứng dụng của Nvidia, cho biết khuôn khổ của nó chỉ đơn giản là “điểm khởi đầu để xây dựng các chatbot AI phù hợp với các nguyên tắc chủ đề, an toàn và bảo mật đã xác định của nhà phát triển”.
Ông nói: “Nó được phát hành dưới dạng phần mềm nguồn mở để cộng đồng khám phá các khả năng của nó, cung cấp phản hồi và đóng góp các kỹ thuật tiên tiến nhất”. một ứng dụng sản xuất.”
Ông từ chối cho biết có bao nhiêu doanh nghiệp đang sử dụng sản phẩm nhưng cho biết công ty không nhận được báo cáo nào khác về việc sản phẩm hoạt động sai.
Các công ty AI hàng đầu như OpenAI do Google và Microsoft hậu thuẫn đã phát hành các chatbot được cung cấp bởi các mô hình ngôn ngữ của riêng họ, thiết lập các biện pháp bảo vệ để đảm bảo các sản phẩm AI của họ tránh sử dụng ngôn từ phân biệt chủng tộc hoặc áp dụng tính cách độc đoán.
Những người khác đã làm theo với các AI riêng biệt nhưng thử nghiệm để dạy học sinh nhỏ tuổi, đưa ra lời khuyên y tế đơn giản, dịch giữa các ngôn ngữ và viết mã. Gần như tất cả đều gặp trục trặc về an toàn.
Bea Longworth, người đứng đầu các vấn đề chính phủ của công ty ở Châu Âu, Trung Đông và Châu Phi, cho biết Nvidia và những người khác trong ngành AI cần “thực sự xây dựng niềm tin của công chúng vào công nghệ này” tại một hội nghị do nhóm vận động hành lang ngành TechUK tổ chức vào tuần này. .
Họ phải tạo cho công chúng cảm giác rằng “đây là thứ có tiềm năng to lớn và không chỉ đơn giản là một mối đe dọa hay điều gì đó đáng sợ,” Longworth nói thêm.
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top