Viết chính sách ChatGPT của riêng công ty bạn

Việc cấp cho nhân viên của bạn quyền truy cập tự do vào ChatGPT có thể dẫn đến những kết quả tai hại, đặc biệt là khi vô tình tiết lộ dữ liệu bí mật. Dưới đây là một số gợi ý về cách viết chính sách AI tổng quát của riêng công ty bạn.
Viết chính sách ChatGPT của riêng công ty bạn
Nhiều công cụ mới được mệnh danh là công cụ thay đổi trò chơi, nhưng ChatGPT thực sự xứng đáng với danh hiệu đó. Bùng nổ cách đây sáu tháng, điều kỳ diệu về trí tuệ nhân tạo (AI) thế hệ mới đã đi từ chỗ khơi dậy sự nhiệt tình đến việc thúc đẩy thử nghiệm liên ngành — tạo ra nhiều vấn đề trên đường đi.
Tất nhiên, mối quan tâm kinh doanh lớn nhất là xung quanh các mối đe dọa dài hạn đối với lực lượng lao động của con người. Tuy nhiên, có thể cho rằng những lo ngại trực tiếp và hữu hình hơn tập trung vào hậu quả của việc di chuyển quá nhanh (và xa) với việc áp dụng gần đây, bao gồm cả việc đặt quyền riêng tư dữ liệu vào nguy cơ nghiêm trọng.
Chỉ vài tuần sau khi các nhà lãnh đạo khoa học và công nghệ ký một bức thư ngỏ kêu gọi tạm dừng nghiên cứu trong khi các giao thức an toàn được giải quyết, Samsung đã trở thành một trong những ví dụ điển hình đầu tiên về những gì xảy ra khi sử dụng trái phép AI gặp trục trặc. Chỉ đơn giản bằng cách nhập dữ liệu vào các yêu cầu ChatGPT, nhân viên của Samsung đã vô tình tiết lộ thông tin rất nhạy cảm của công ty.
Chính quyền toàn cầu đã bắt đầu hành động tương đối nhanh chóng. Khung AI do Vương quốc Anh đề xuất, cuộc điều tra về quyền riêng tư của Canada và dự thảo quy định của Liên minh Châu Âu là những bước tích cực hướng tới quản trị rất cần thiết. Tuy nhiên, khi tiến bộ vượt bậc, các công ty ngày càng có nhu cầu bắt đầu bảo vệ hệ thống, con người và dữ liệu tốt hơn ngay bây giờ bằng cách viết chính sách ChatGPT của riêng họ.
Ranh giới mong manh giữa thành công và tai họa
McKinsey đã đưa ra lời giải thích tuyệt vời cho tiếng vang về trí tuệ nhân tạo hiện tại: trong khi những đổi mới về học sâu đằng sau sự phát triển của nó đã được chuyển động trong nhiều năm, các ứng dụng như ChatGPT là kết quả của một bước nhảy vọt đột ngột đã tạo ra các mô hình nền tảng có thể xử lý khối lượng lớn dữ liệu. dữ liệu phi cấu trúc và thực hiện nhiều yêu cầu cùng một lúc.
Với khả năng cung cấp hỗ trợ ngay lập tức trên nhiều nhiệm vụ — từ sản xuất nội dung tiếp thị đến giải quyết các thách thức về mã hóa — thật dễ hiểu tại sao chatbot đang trở nên cực kỳ phổ biến và thúc đẩy kỳ vọng tăng năng suất; được cho là sẽ mang lại tới 4,4 nghìn tỷ đô la lợi nhuận hàng năm cho nền kinh tế toàn cầu.
Ngoài ra, AI sáng tạo của Deloitte là tất cả các báo cáo nổi bật về cách thức, ngoài khả năng tạo ra của nó, AI có thể được khai thác cho các nhiệm vụ đòi hỏi nhiều công việc nặng nhọc nhưng lại dễ dàng xác thực. Tuy nhiên, như với tất cả các công nghệ mới, tính linh hoạt này cũng là một yếu tố rủi ro.
Người dùng có phạm vi ngày càng mở rộng để ủy thác công việc nhằm tăng hiệu quả mà không cần cân nhắc xem họ có nên làm như vậy hay không. Các vấn đề gần đây của Samsung là một ví dụ điển hình cho điều này: với việc các nhân viên tập trung quá nhiều vào lợi ích của việc bàn giao công việc kiểm tra chip và xây dựng bản trình bày tốn nhiều thời gian, họ đã không tính đến việc nhập dữ liệu nhạy cảm vào AI nguồn mở sẽ giúp người khác có thể truy cập dữ liệu đó. người dùng.
Khi khả năng ứng dụng hàng ngày của các công cụ tinh vi tăng lên, điều này có nghĩa là các biện pháp an toàn mạnh mẽ là điều cần thiết để đảm bảo sử dụng có trách nhiệm.
Chuẩn bị cho (gần như) tất cả các tình huống
Giá trị của sự chuẩn bị không bao giờ được đánh giá thấp; như McKinsey cũng lưu ý, việc gặt hái những phần thưởng đáng kể từ AI tổng quát sẽ liên quan đến việc quản lý những rủi ro lớn không kém của nó.
Các công ty đã đánh giá nghiêm ngặt các công cụ mới trước khi triển khai sẽ đi đầu tại đây; với việc kiểm tra nghiêm ngặt làm giảm khả năng xảy ra các mối nguy hiểm bất ngờ. Điều này đặc biệt đúng khi đánh giá nhiều mặt: liên quan đến người dùng, nhóm pháp lý và bảo mật để bao quát tất cả các cơ sở, bao gồm cả việc liệu các công cụ có bảo vệ đầy đủ thông tin nhận dạng cá nhân (PII) và dữ liệu không công khai hay không.
Tuy nhiên, những cách tiếp cận như vậy vẫn chỉ cung cấp một cái nhìn tổng quan tương đối ở mức cao nhất về cách sử dụng các công nghệ như ChatGPT. Để đảm bảo ứng dụng thực tế luôn an toàn, các công ty phải xây dựng các chính sách chuyên sâu giúp người lao động hiểu chính xác điều gì là phù hợp và không phù hợp.
Khuếch đại nhận thức
Ngoài việc xác định công cụ là gì và cách chúng hoạt động, các chính sách nên vạch ra các rủi ro rộng hơn, chẳng hạn như đầu ra không đáng tin cậy và vi phạm tính bảo mật đối với ChatGPT.
Viết chính sách ChatGPT của riêng công ty bạn
Để giúp nhân viên nắm bắt và nắm bắt những điều cơ bản chính một cách nhanh chóng, một điểm khởi đầu hữu ích có thể là chỉ dẫn các phần có liên quan của các chính sách hiện có mà họ có thể kiểm tra để biết các phương pháp hay nhất.
Việc tạo hướng dẫn phù hợp cho chính sách ChatGPT nội bộ phức tạp hơn một chút. Để phát triển một chính sách ChatGPT thực sự toàn diện, các công ty có thể sẽ cần tổ chức các cuộc hội thảo kinh doanh chéo và khảo sát cá nhân rộng rãi để cho phép họ xác định và thảo luận về mọi trường hợp sử dụng. Tuy nhiên, việc đưa vào nền tảng này sẽ cho phép họ xây dựng các hướng dẫn cụ thể nhằm đảm bảo sự bảo vệ tốt hơn, cũng như cung cấp cho người lao động kiến thức toàn diện cần thiết để tận dụng tối đa công nghệ tiên tiến.
Xác định giới hạn
Làm nổi bật rõ ràng các mối đe dọa và đặt giới hạn sử dụng rõ ràng cũng rất quan trọng để không có chỗ cho việc vô tình sử dụng sai mục đích. Điều này đặc biệt quan trọng đối với các doanh nghiệp nơi AI tổng quát có thể được triển khai để hợp lý hóa các nhiệm vụ liên quan đến một số cấp độ PII, chẳng hạn như soạn thảo hợp đồng khách hàng, viết email hoặc đề xuất sử dụng đoạn mã nào trong lập trình.

Nên và không nên
Một lần nữa, cung cấp lời khuyên tổng quát như Câu hỏi thường gặp có thể là một bước hữu ích; trang bị cho nhân viên tài liệu tham khảo ban đầu cho các câu hỏi về thời điểm chatbot là lựa chọn phù hợp và loại dữ liệu họ có thể nhập. Nhưng giảm thiểu rủi ro có nghĩa là tiến xa hơn và đưa ra một danh sách gạch chân chính xác những điều “không nên” cần tránh. Ví dụ: điều đó có thể bao gồm các quy tắc rộng hơn, chẳng hạn như cấm hoàn toàn việc tải dữ liệu PII lên chatbot cho bất kỳ mục đích nào, bao gồm nhân viên, nhà thầu, khách hàng, khách hàng, nhà cung cấp hoặc dữ liệu sản phẩm. Trong khi đó, hướng dẫn cho các trường hợp sử dụng cụ thể có thể yêu cầu người quản lý trực tiếp phê duyệt bất kỳ thông tin nào trước khi nhập ChatGPT, cùng với việc thẩm vấn nghiêm ngặt các câu trả lời mà nó tạo ra để xác thực các nguồn và kết quả đầu ra chính hãng.
Có sự khác biệt giữa tiến hóa nhanh và thích ứng vội vàng. Khi sự cường điệu xung quanh AI sáng tạo tiếp tục phát triển, các doanh nghiệp phải cẩn thận để không để nó thúc đẩy việc sử dụng một cách thiếu cân nhắc với những hậu quả tai hại lâu dài. Nếu các quy trình bảo mật vững chắc đã được thiết lập, những thách thức đi kèm với việc triển khai và sử dụng các công nghệ như ChatGPT có thể được giải quyết theo cách có cấu trúc và hiệu quả, khai thác các lợi ích phong phú trong khi hạn chế rủi ro.
Tham khảo bài viết gốc tại đây:
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top