6 mẹo quản lý rủi ro do AI sáng tạo

Các mô hình AI sáng tạo là những công cụ mạnh mẽ mà các nhà khoa học dữ liệu đang sử dụng để tạo ra kết quả mạnh mẽ, từ tạo nội dung đến cải thiện hiệu suất phân tích dữ liệu. Tuy nhiên, rõ ràng là nhiều người dùng không nhận thức được những rủi ro khi sử dụng AI tổng quát.
VNReview.vn

Khi ngày càng có nhiều người dùng kết hợp AI tổng quát vào quy trình công việc hàng ngày của họ mà không thực hiện thẩm định, những thách thức và hậu quả tiềm ẩn của việc sử dụng các mô hình AI này đang bắt đầu lớn hơn các ưu điểm. Điều này đặc biệt đúng đối với người dùng doanh nghiệp cần dữ liệu minh bạch và thực hành bảo mật để bảo vệ dữ liệu của khách hàng và tuân thủ các quy định cụ thể của ngành. Trong hướng dẫn này, chúng tôi sẽ thảo luận ngắn gọn về một số rủi ro khi sử dụng AI tổng quát. Ngoài ra, điều quan trọng là chúng tôi sẽ hướng dẫn một số cách tốt nhất mà tổ chức của bạn có thể quản lý và giảm thiểu rủi ro AI tổng quát.
Những phẩm chất này làm cho các mô hình tổng quát có khả năng thực hiện các nhiệm vụ giải quyết vấn đề giống như con người. Nhưng tương tự như bộ não con người, không phải tất cả các quyết định và kết quả đầu ra của mô hình AI tổng quát đều dễ dàng phân tích. Sự thiếu minh bạch của các mô hình AI là một trong nhiều rủi ro AI chung mà người dùng phải xem xét trong bối cảnh công việc của họ. Các rủi ro quan trọng khác của AI tổng quát bao gồm: Khả năng mô hình AI đã sử dụng dữ liệu hoặc sáng tạo có bản quyền mà không có sự đồng ý của người sáng tạo; ngay cả khi người dùng không biết về vi phạm này, nếu họ sử dụng nội dung trái phép cho mục đích thương mại, họ có thể phải chịu trách nhiệm pháp lý. Khả năng sử dụng dữ liệu nhạy cảm của người tiêu dùng và dữ liệu đó trở thành một phần của bộ dữ liệu đào tạo liên tục của mô hình. Dữ liệu đào tạo của một mô hình có thể sai lệch, không đầy đủ hoặc không chính xác. Các mô hình có thể không có nhiều biện pháp bảo vệ tích hợp như tổ chức của bạn cần để bảo vệ dữ liệu và tuân thủ các quy định. Luôn có khả năng một nhân viên có thể vô tình sử dụng sai mô hình hoặc dữ liệu nhạy cảm, làm lộ tài sản trí tuệ và thông tin nhạy cảm khác của công ty. Các mô hình sáng tạo đôi khi gây ảo giác, có nghĩa là chúng tự tin tạo ra nội dung không chính xác. Các mô hình thường lưu trữ dữ liệu trong một khoảng thời gian dài, điều này làm tăng khả năng bị tấn công mạng của tập dữ liệu. Nhiều mô hình có ít hoặc không có công cụ an ninh mạng nguyên bản; Ngoài ra, các mô hình AI tổng quát có thể bị lừa để giải các câu đố bảo mật cho các tác nhân độc hại. Sự thiếu minh bạch của các mô hình tổng quát gây khó khăn cho việc kiểm tra chất lượng và kiểm tra dữ liệu cũng như việc sử dụng mô hình. Các mô hình AI sáng tạo phải tuân theo một số quy định, mặc dù một số quốc gia có luật AI đang hoạt động; nói chung, các nhà cung cấp AI sáng tạo không tuân theo các tiêu chuẩn bảo vệ người tiêu dùng giống như nhiều doanh nghiệp khác.
Quản lý rủi ro AI sáng tạo: 6 phương pháp hay nhất 1) Tạo và thực thi chính sách sử dụng AI trong tổ chức của bạn Cho dù bạn đã sử dụng AI tổng quát trong tổ chức của mình hay chỉ đang xem xét các lợi ích của nó, thì bạn nên thiết lập chính sách sử dụng AI có thể chấp nhận được cho tổ chức của mình. Chính sách này nên giải thích: Những bộ phận và vai trò nào được phép sử dụng các mô hình tổng quát như một phần công việc của họ. Những phần nào của quy trình làm việc có thể được tự động hóa hoặc bổ sung bằng AI tổng quát. Dữ liệu và ứng dụng nội bộ nào được phép và không được phép hiển thị với các mô hình này. Việc thiết lập các chính sách này mang lại cho nhân viên của bạn một khuôn khổ tốt hơn về những gì họ có thể và không thể làm với AI tổng quát, đồng thời giúp lãnh đạo của bạn hiểu rõ hơn về những hành vi mà họ nên theo dõi và sửa chữa. Nếu bạn đang tìm kiếm một chính sách hiện có để mô hình hóa chính sách của riêng mình sau đó, Khung quản lý rủi ro trí tuệ nhân tạo của NIST là một lựa chọn tuyệt vời.
2) Sử dụng dữ liệu của bên thứ nhất và nguồn dữ liệu của bên thứ ba có trách nhiệm Khi sử dụng mô hình tổng quát trong cài đặt doanh nghiệp, bạn phải luôn biết dữ liệu đầu vào của mình đến từ đâu. Bất cứ khi nào có thể, hãy sử dụng dữ liệu của bên thứ nhất mà công ty của bạn sở hữu; điều này sẽ giúp bạn theo dõi nguồn gốc dữ liệu của mình và xác định xem dữ liệu đó có an toàn để sử dụng trong mô hình tổng quát hay không. Nếu bạn cần sử dụng dữ liệu mà công ty của bạn không sở hữu, hãy đảm bảo rằng bạn đang sử dụng các nguồn bên thứ ba đáng tin cậy với sự cho phép. Điều này sẽ tăng khả năng bạn sử dụng dữ liệu chất lượng cao và tránh bị kiện vì sử dụng dữ liệu trái phép. Ngoài dữ liệu mà tổ chức của bạn chọn để nhập vào các mô hình hiện có, bạn cũng nên nghiên cứu cách các nhà cung cấp AI tổng quát đang tìm nguồn cung ứng dữ liệu đào tạo của họ. Các công ty từ chối giải thích bất kỳ quy trình nào trong số này trong tài liệu của họ nên đưa ra cảnh báo cho tổ chức của bạn và nên tránh. Ngay cả khi tổ chức của bạn vô tình sử dụng hoặc hưởng lợi từ dữ liệu có nguồn gốc bất hợp pháp từ nhà cung cấp, bạn vẫn có thể phải chịu trách nhiệm về mọi kết quả đầu ra vi phạm luật bản quyền hoặc quyền riêng tư.
3) Đào tạo nhân viên về dữ liệu phù hợp và cách sử dụng mô hình sáng tạo Có một rủi ro rõ ràng là chính sách sử dụng AI không đảm bảo rằng tất cả người dùng sẽ biết và tuân theo các quy tắc cụ thể của chính sách. Đó là lý do tại sao điều quan trọng là phải đào tạo nhân viên về chính sách làm nền tảng và sau đó giải thích cách chính sách đó áp dụng cho các vai trò, phòng ban và tình huống cụ thể. Điều này sẽ giúp tổ chức của bạn duy trì mức độ bảo mật và tuân thủ tối ưu bằng cách tránh các lỗi người dùng cá nhân khó phát hiện hơn. Tất cả nhân viên sẽ được đào tạo này, nhưng những nhân viên làm việc với các ứng dụng và dữ liệu nhạy cảm nhất của bạn sẽ được đào tạo thường xuyên và chi tiết hơn. Để có kết quả sử dụng AI tốt hơn, việc đào tạo nên mở rộng ra ngoài chính sách của bạn và bao gồm các mẹo về cách phát hiện sự thiên vị, thông tin sai lệch và ảo giác của AI. Điều này sẽ mang lại cho nhân viên của bạn sự tự tin cần thiết để sử dụng tốt các mô hình và đưa ra các quyết định có tính toán hơn cho các nhiệm vụ như phân tích dữ liệu dựa trên trí tuệ nhân tạo.
4) Đầu tư vào các công cụ an ninh mạng giải quyết rủi ro bảo mật AI Các mô hình AI sáng tạo và các công cụ trí tuệ nhân tạo nói chung yêu cầu các biện pháp bảo vệ an ninh mạng mạnh mẽ để bảo mật tất cả thông tin mà chúng chứa. Thật không may, nhiều mô hình AI tổng quát không có sẵn nhiều cơ sở hạ tầng an ninh mạng riêng hoặc các tính năng này quá khó định cấu hình nên hầu hết người dùng không thiết lập chúng. Để bảo vệ dữ liệu đầu vào và đầu ra khỏi các mối đe dọa an ninh mạng, bạn nên xem xét bất kỳ mô hình AI tổng quát nào mà bạn sử dụng như một phần của bề mặt tấn công mạng của bạn và thiết lập các công cụ bảo mật mạng phù hợp. Nếu bạn chưa sử dụng các công cụ an ninh mạng để bảo vệ mạng doanh nghiệp của mình, chúng tôi khuyên bạn nên đầu tư vào các công cụ như những công cụ sau được thiết kế có lưu ý đến AI và các bề mặt tấn công hiện đại khác: Quản lý danh tính và truy cập. Mã hóa dữ liệu và các công cụ bảo mật dữ liệu. Quản lý tư thế bảo mật đám mây (CSPM). Thử nghiệm thâm nhập. Phát hiện và phản hồi mở rộng (XDR). Mối đe dọa tình báo. Ngăn ngừa mất dữ liệu (DLP).
5) Xây dựng một nhóm các nhà phân tích đảm bảo chất lượng AI Nếu bạn dự định sử dụng các mô hình AI trên quy mô lớn hơn, bạn nên thuê hoặc đào tạo nhân viên hiện có để làm việc với tư cách là nhà phân tích hoặc kỹ sư đảm bảo chất lượng AI. Những cá nhân này chịu trách nhiệm duy trì và giám sát cả các mô hình AI mà tổ chức của bạn sử dụng và dữ liệu đi vào các mô hình này. Một số trách nhiệm quan trọng nhất của nhà phân tích đảm bảo chất lượng AI là: Phát hiện các vấn đề trong cả dữ liệu đào tạo và dữ liệu đầu vào. Các đầu ra của kiểm tra QA để đảm bảo nội dung được tạo là chính xác, nguyên bản và được quy kết phù hợp. Giám sát các mô hình tổng quát, API và cơ sở hạ tầng liên quan khác để phát hiện các hành vi bất thường. Duy trì tài liệu thường xuyên về các điểm bất thường trong hành vi của mô hình và dữ liệu không chính xác để hỗ trợ các cuộc kiểm toán trong tương lai. Hợp tác chặt chẽ với các nhóm khoa học dữ liệu và an ninh mạng để sử dụng các công cụ AI tổng quát một cách hiệu quả.
6) Nghiên cứu các mô hình AI sáng tạo trước khi sử dụng chúng Mặc dù pháp luật hiện không yêu cầu các nhà cung cấp AI sáng tạo phải cung cấp tài liệu hoặc thông tin minh bạch về quá trình đào tạo người mẫu của họ, nhưng một số nhà cung cấp đã mở rộng tài liệu của mình theo yêu cầu của khách hàng. Ví dụ: OpenAI cung cấp chỉ mục nghiên cứu có sẵn công khai với các bài báo được phát hành thường xuyên về các sản phẩm riêng lẻ và các bước mà công ty đang thực hiện để làm cho các mô hình ngôn ngữ lớn trở nên an toàn và hiệu quả hơn. Công ty cũng có một số điều khoản và chính sách pháp lý, bao gồm chính sách sử dụng và chính sách sử dụng dữ liệu API. Khách hàng AI sáng tạo nên đọc loại nghiên cứu này không chỉ để hiểu rõ hơn về toàn bộ khả năng mà các công cụ này sở hữu mà còn để xác định xem dữ liệu đã được lấy nguồn gốc chưa và các mô hình đã được đào tạo theo cách phù hợp với các giá trị của công ty và quy định của ngành hay chưa. Bạn cũng nên thận trọng cập nhật tin tức và vụ kiện liên quan đến các công ty AI, vì thông tin này có thể ảnh hưởng đến những sản phẩm bạn chọn sử dụng trong tương lai.
Tham khảo bài viết gốc tại đây:
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top