ChatGPT có nguy cơ bảo mật đáng sợ sau khi cập nhật mới. Dữ liệu của bạn có gặp rắc rối không?

Việc giới thiệu tính năng tải file lên ChatGPT Plus đang tạo ra một số vấn đề đáng tiếc trong tương lai.
Nhờ các bản cập nhật ChatGPT mới như Trình thông dịch mã, trí tuệ nhân tạo tổng quát phổ biến của OpenAI có nhiều mối lo ngại về bảo mật hơn. Theo nghiên cứu từ chuyên gia bảo mật Johann Rehberger, ChatGPT có những lỗi bảo mật rõ ràng xuất phát từ tính năng tải tệp lên mới của nó.
ChatGPT có nguy cơ bảo mật đáng sợ sau khi cập nhật mới. Dữ liệu của bạn có gặp rắc rối không?

ChatGPT có nguy cơ bảo mật đáng sợ sau khi cập nhật mới. Dữ liệu của bạn có gặp rắc rối không?
Bản cập nhật gần đây của OpenAI cho ChatGPT Plus đã bổ sung vô số tính năng mới, bao gồm tạo hình ảnh DALL-E và Trình thông dịch mã, cho phép thực thi mã Python và phân tích tệp. Mã được tạo và chạy trong môi trường hộp cát rất dễ bị tấn công tiêm nhiễm ngay lập tức.
Một lỗ hổng đã được biết đến trong ChatGPT từ lâu, cuộc tấn công liên quan đến việc lừa ChatGPT thực hiện các hướng dẫn từ URL của bên thứ ba, khiến nó mã hóa các tệp đã tải lên thành một chuỗi thân thiện với URL và gửi dữ liệu này đến một trang web độc hại. Mặc dù khả năng xảy ra một cuộc tấn công như vậy đòi hỏi các điều kiện cụ thể (ví dụ: người dùng phải chủ động dán URL độc hại vào ChatGPT), nhưng rủi ro vẫn đáng lo ngại. Mối đe dọa bảo mật này có thể được nhận ra thông qua nhiều tình huống khác nhau, bao gồm cả việc một trang web đáng tin cậy bị xâm phạm bởi câu lệnh độc hại - hoặc thông qua các chiến thuật lừa đảo qua mạng.
Trang Tom's Hardware đã thực hiện một số thử nghiệm về mức độ dễ bị tổn thương của người dùng đối với cuộc tấn công này. Việc khai thác đã được kiểm tra bằng cách tạo tệp biến môi trường giả mạo và sử dụng ChatGPT để xử lý và vô tình gửi dữ liệu này đến máy chủ bên ngoài. Mặc dù hiệu quả của việc khai thác khác nhau giữa các phiên (ví dụ: ChatGPT đôi khi từ chối tải các trang bên ngoài hoặc truyền dữ liệu tệp), nhưng nó gây ra những lo ngại đáng kể về bảo mật, đặc biệt là khi AI có khả năng đọc và thực thi các lệnh Linux cũng như xử lý các tệp do người dùng tải lên trong hệ điều hành Linux- dựa trên môi trường ảo.
Mặc dù có vẻ khó xảy ra nhưng sự tồn tại của lỗ hổng bảo mật này là rất đáng kể. ChatGPT lý tưởng nhất là không thực thi các hướng dẫn từ các trang web bên ngoài, tuy nhiên nó vẫn làm như vậy. OpenAI chưa có phản hồi gì về vấn đề này.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top