Bị lộ dữ liệu nội bộ nhạy cảm, Samsung cấm ngay nhân viên dùng ChatGPT

Ít nhất ba nhân viên Samsung làm rò rỉ dữ liệu nhạy cảm qua ChatGPT mà không thể thu hồi, khiến hãng phải ra lệnh cấm sử dụng siêu AI này trên các thiết bị do công ty cung cấp.
Bị lộ dữ liệu nội bộ nhạy cảm, Samsung cấm ngay nhân viên dùng ChatGPT
Truyền thông Hàn Quốc đưa tin một nhân viên kỹ thuật của Samsung sao chép mã nguồn bị lỗi từ cơ sở dữ liệu bán dẫn để nhờ ChatGPT tìm cách khắc phục. Một nhân viên khác vì tò mò đã tải lên mã bí mật của thiết bị lỗi để xem trí tuệ nhân tạo có phát hiện ra.
Chưa dừng ở đó, nhân viên khác thuộc khối văn phòng thậm chí đưa toàn bộ nội dung cuộc họp lên nền tảng của OpenAI, nhờ chatbot soạn thành biên bản tóm tắt. Dù đã tìm cách khắc phục, hãng Hàn Quốc không thể xóa hoặc thu hồi những thông tin bí mật này vì chúng được lưu trữ trên máy chủ của OpenAI.
Đại diện Samsung Electronics xác nhận công ty đã cấm nhân viên sử dụng dịch vụ AI tạo sinh (AI generative) như ChatGPT, Google Bard... Đây là những công cụ tổng hợp, tóm tắt thông tin và viết văn bản dựa trên chủ đề do người dùng cung cấp.
Quy định mới của Samsung cấm sử dụng AI tạo sinh trên máy tính, tablet và smartphone thuộc sở hữu của công ty, hoặc kết nối với mạng nội bộ. Lệnh cấm này không ảnh hưởng đến những thiết bị được bán cho người dùng, ví dụ như smartphone Android và máy tính chạy Windows.
Bị lộ dữ liệu nội bộ nhạy cảm, Samsung cấm ngay nhân viên dùng ChatGPT
Nếu sử dụng trên thiết bị cá nhân, các nhân viên được yêu cầu không gửi bất cứ thông tin hoặc dữ liệu liên quan đến Samsung có thể tiết lộ tài sản trí tuệ. Nếu vi phạm, họ có thể bị sa thải.
"Chúng tôi yêu cầu bạn tích cực chấp hành nguyên tắc bảo mật, việc không tuân thủ có thể dẫn đến vi phạm hoặc xâm phạm thông tin nội bộ, dẫn đến kỷ luật với hình phạt tối đa/bao gồm chấm dứt hợp đồng", Samsung cho biết.
Theo Bloomberg, lý do khiến ChatGPT bị cấm đến từ rủi ro bảo mật dữ liệu. Trước đó, Samsung phát hiện nhân viên đã gửi đoạn mã, tài liệu kinh doanh nhạy cảm lên các công cụ này.
"Mối quan tâm dành cho các nền tảng AI tạo sinh như ChatGPT ngày càng lớn cả trong và ngoài công ty. Hầu hết quan tâm về tính hữu ích và hiệu quả, tuy nhiên vẫn có những lo ngại về rủi ro bảo mật do AI tạo sinh gây ra", thông báo được Samsung gửi đến nhân viên ngày 1/5 cho biết.
Trong thông báo này, Samsung lo ngại dữ liệu nội bộ có thể bị nhân viên chia sẻ cho các nền tảng AI như Google Bard và Microsoft Bing. Máy chủ của các dịch vụ được đặt bên ngoài công ty gây khó khăn cho việc trích xuất và gỡ bỏ, có khả năng bị rò rỉ cho người khác.
Bị lộ dữ liệu nội bộ nhạy cảm, Samsung cấm ngay nhân viên dùng ChatGPT
Công ty điện tử Hàn Quốc đã khảo sát nhân viên vào tháng 4 về việc sử dụng AI tạo sinh. Kết quả cho thấy 65% người tham gia tin rằng các dịch vụ này chứa rủi ro bảo mật.
Samsung không phải công ty duy nhất bày tỏ lo ngại về ChatGPT. Hồi tháng 2, một số ngân hàng tại Phố Wall như JPMorgan Chase, Bank of America và Citigroup đã hạn chế hoặc cấm sử dụng các dịch vụ AI tạo sinh. Italy cũng cấm ChatGPT vì lo ngại quyền riêng tư, song đã bãi bỏ quy định.
Bản thân Samsung đang thử nghiệm công cụ AI nội bộ để dịch, tóm tắt tài liệu và phát triển phần mềm. Trong khi đó, ChatGPT đã bổ sung chế độ ẩn danh, dữ liệu không được dùng để đào tạo mô hình AI.
"Chúng tôi đang xem xét các biện pháp bảo mật để tạo ra môi trường sử dụng AI tạo sinh một cách an toàn, nhằm nâng cao hiệu quả làm việc của nhân viên. Tuy nhiên cho đến khi những biện pháp hoàn tất, chúng tôi tạm thời hạn chế việc sử dụng AI tạo sinh", thông báo của Samsung cho biết.
>> ChatGPT quá nguy hiểm! Người dùng phổ thông cũng có thể tạo ra "vũ khí"
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top