Sóng AI
Writer

(tiếp theo Phần 1)
Các cân nhắc chính sách và thực tiễn tốt nhất
Trong phần này
Chỉ thị về Ra quyết định tự động có áp dụng không?
Chỉ thị về Ra quyết định tự động áp dụng cho các hệ thống tự động được sử dụng để hỗ trợ hoặc đưa ra quyết định hành chính, bao gồm các hệ thống dựa trên AI. Giống như các hệ thống AI khác, hệ thống AI tạo sinh có khả năng cho phép chúng đánh giá hoặc xác định về khách hàng như một phần của quy trình cung cấp dịch vụ. Ví dụ, hệ thống AI tạo sinh có thể được sử dụng để tóm tắt dữ liệu của khách hàng hoặc xác định liệu họ có đủ điều kiện cho một dịch vụ. Chú thích13 Những ứng dụng hành chính này có thể ảnh hưởng đến cách một nhân viên xem xét và quyết định về một trường hợp, có ảnh hưởng đến quyền, lợi ích và đặc quyền của khách hàng.
Chỉ thị áp dụng cho hệ thống AI tạo sinh khi chúng được sử dụng để đưa ra hoặc cung cấp thông tin cho quyết định hành chính. Các tổ chức phải đảm bảo họ đáp ứng các yêu cầu của chỉ thị, bao gồm hoàn thành Đánh giá tác động thuật toán (AIA) và các yêu cầu khác hỗ trợ tính minh bạch, đảm bảo chất lượng và công bằng thủ tục.
Tuy nhiên, AI tạo sinh có thể không phù hợp để sử dụng trong ra quyết định hành chính. Thiết kế và chức năng của các mô hình tạo sinh có thể hạn chế khả năng của các tổ chức trong việc đảm bảo tính minh bạch, trách nhiệm giải trình và công bằng trong các quyết định được đưa ra bởi các hệ thống này hoặc được cung cấp thông tin bởi đầu ra của chúng. Ngoài ra, điều khoản sử dụng cho sản phẩm AI tạo sinh của nhiều công ty công nghệ cấm sử dụng sản phẩm của họ để đưa ra quyết định có tác động cao. Ví dụ, OpenAI không cho phép sử dụng mô hình của họ cho quyết định về tình trạng sức khỏe, tín dụng, việc làm, tổ chức giáo dục, hoặc dịch vụ hỗ trợ công; thực thi pháp luật và tư pháp hình sự; và di cư cùng tị nạn. Chú thích14 Tương tự, Google cấm sử dụng dịch vụ AI tạo sinh của họ để đưa ra "quyết định tự động trong các lĩnh vực ảnh hưởng đến quyền vật chất hoặc cá nhân hoặc hạnh phúc." Chú thích15 Những hạn chế này nhấn mạnh tầm quan trọng của việc tuân thủ yêu cầu của chỉ thị về việc tham khảo ý kiến dịch vụ pháp lý trong giai đoạn thiết kế của dự án tự động hóa. Yêu cầu này giúp đảm bảo các tổ chức liên bang hiểu rủi ro pháp lý của việc sử dụng hành chính các hệ thống AI tạo sinh cả cho chính họ và cho khách hàng.
Không phải tất cả việc sử dụng AI tạo sinh đều tuân theo chỉ thị. Ví dụ, sử dụng công cụ AI tạo sinh trong nghiên cứu hoặc để động não, lập kế hoạch, hoặc soạn thảo thư từ thông thường nằm ngoài phạm vi của chỉ thị. Tuy nhiên, những ứng dụng không phải hành chính như vậy vẫn phải tuân theo luật pháp và chính sách chi phối các tổ chức liên bang.
Cân nhắc về quyền riêng tư
Tất cả thông tin cá nhân được xử lý bởi các tổ chức liên bang phải tuân theo yêu cầu của Đạo luật Quyền riêng tư và các công cụ chính sách liên quan. Thông tin cá nhân được định nghĩa là thông tin về một cá nhân có thể nhận dạng được ghi lại dưới bất kỳ hình thức nào. Đạo luật và bộ chính sách quyền riêng tư bao gồm các yêu cầu về thời điểm và cách thức thông tin cá nhân được thu thập, tạo ra, sử dụng hoặc tiết lộ bằng hệ thống AI tạo sinh.
Rủi ro về quyền riêng tư sẽ phụ thuộc vào cách hệ thống AI tạo sinh được sử dụng, cách hệ thống xử lý thông tin về cá nhân, và liệu hệ thống có thể truy cập công khai trực tuyến hay được triển khai trên mạng an toàn của chính phủ.
Công chức không được nhập thông tin cá nhân vào công cụ AI tạo sinh trực tuyến có sẵn công khai. Làm như vậy sẽ cấu thành việc tiết lộ thông tin bất hợp pháp vì nhà cung cấp có thể lưu trữ một bản sao thông tin. Tuy nhiên, công chức có thể nhập thông tin cá nhân vào hệ thống AI tạo sinh được kiểm soát hoặc cấu hình bởi chính phủ khi các biện pháp kiểm soát quyền riêng tư và bảo mật thích hợp được áp dụng. Khi sử dụng công cụ AI tạo sinh được kiểm soát bởi tổ chức, nhân viên có trách nhiệm tuân theo tất cả các yêu cầu về quyền riêng tư và bảo vệ thông tin cá nhân như với bất kỳ hệ thống nào khác.
Nếu đầu ra của công cụ AI tạo sinh dẫn đến việc tạo ra thông tin cá nhân mới, tổ chức phải quản lý thông tin mới theo các yêu cầu về quyền riêng tư. Ví dụ, nếu một tổ chức triển khai công cụ AI tạo sinh trên mạng của mình để hỗ trợ đánh giá rủi ro, mức độ rủi ro được gán cho các ứng dụng cá nhân sẽ cấu thành thông tin cá nhân. Ví dụ khác, bản tóm tắt đơn xin dịch vụ hoặc quyền lợi được tạo ra bởi công cụ AI tạo sinh có thể cấu thành thông tin cá nhân mới. Trong cả hai ví dụ này, mức độ rủi ro và bản tóm tắt sẽ yêu cầu các biện pháp bảo vệ quyền riêng tư thích hợp và phải tuân theo các yêu cầu khác về xử lý thông tin cá nhân.
Khi các tổ chức đang xem xét mua sắm, phát triển hoặc triển khai công cụ AI tạo sinh, các cán bộ phụ trách quyền riêng tư phải được tham khảo ý kiến để xác định liệu có cần Đánh giá tác động quyền riêng tư để xác định và giảm thiểu rủi ro quyền riêng tư trước khi triển khai hay không. Khi các tổ chức đang xây dựng giải pháp Công nghệ thông tin sử dụng AI tạo sinh, họ phải đảm bảo họ đáp ứng các yêu cầu quyền riêng tư. Sổ tay quyền riêng tư kỹ thuật số chứa thêm thông tin về các yêu cầu này và cách kết hợp hướng dẫn quyền riêng tư vào giải pháp Công nghệ thông tin sử dụng AI tạo sinh.
Phi định danh và sử dụng dữ liệu tổng hợp có thể giúp các tổ chức giảm tác động và khả năng vi phạm quyền riêng tư khi phát triển, đào tạo, sử dụng và đánh giá đầu ra của công cụ AI tạo sinh. Thông báo thực hiện quyền riêng tư 2023-01: Phi định danh chứa thêm thông tin về các kỹ thuật bảo vệ quyền riêng tư này. Các biện pháp bảo vệ khác như kiểm soát hành chính, quyền truy cập và kiểm toán cũng quan trọng để giảm nguy cơ tiết lộ vô tình hoặc truy cập trái phép, tái xác định hoặc suy luận, và để bảo vệ quyền riêng tư của cá nhân nói chung.
Yêu cầu về tài liệu
Theo Chỉ thị về Dịch vụ và Kỹ thuật số, nhân viên GC có trách nhiệm ghi lại các hoạt động và quyết định có giá trị kinh doanh của họ. Ví dụ, hồ sơ quyết định phát triển hoặc triển khai công cụ AI tạo sinh và các bước thực hiện để đảm bảo công cụ tạo ra đầu ra thích hợp và chính xác; và khi công cụ AI tạo sinh được sử dụng theo cách có thể kích hoạt Chỉ thị về Ra quyết định tự động. Phụ lục E (Xác định và nhận biết thông tin và dữ liệu có giá trị kinh doanh) của Hướng dẫn về Dịch vụ và Kỹ thuật số có thể hỗ trợ cán bộ tổ chức trong quá trình này. Công cụ đánh giá chung (GVT) của Thư viện và Lưu trữ Canada cũng có thể hữu ích khi chúng bao gồm hoạt động kinh doanh trong phạm vi mà AI tạo sinh được sử dụng.
Bối cảnh mà AI tạo sinh được sử dụng phải được xem xét khi đánh giá giá trị kinh doanh tương đối của thông tin và dữ liệu liên quan. Giá trị kinh doanh sẽ thông báo yêu cầu tài liệu. Ví dụ, việc sử dụng công cụ AI tạo sinh để hỗ trợ các nhiệm vụ hàng ngày như sau có khả năng tạo ra thông tin tạm thời hơn:
soạn thảo email hoặc tài liệu
tạo hình ảnh hoặc hỗ trợ tạo bài thuyết trình
hỗ trợ hoạt động lập trình của lập trình viên
động não ý tưởng hoặc thông tin nghiên cứu
dịch văn bản giữa các ngôn ngữ
Theo Chỉ thị về Dịch vụ và Kỹ thuật số, giám đốc thông tin của tổ chức, phối hợp với các cán bộ tổ chức khác, khi cần thiết, chịu trách nhiệm quản lý thông tin và dữ liệu một cách cởi mở và chiến lược và ghi lại các thực tiễn quản lý vòng đời thông tin và dữ liệu tương ứng của tổ chức. Hướng dẫn cho nhân viên của Chính phủ Canada: Cơ bản về quản lý thông tin (IM), Hướng dẫn về chất lượng dữ liệu và Hướng dẫn về quản lý vòng đời siêu dữ liệu cung cấp hướng dẫn và thực tiễn tốt nhất liên quan.
Khi các tổ chức triển khai công cụ AI tạo sinh để hỗ trợ hoặc đưa ra quyết định hành chính, các yêu cầu tài liệu bổ sung liên quan đến tính minh bạch, đảm bảo chất lượng và báo cáo áp dụng. Các yêu cầu này được nêu trong tiểu mục 6.2, 6.3 và 6.5 của Chỉ thị về Ra quyết định tự động.
Tất cả tài liệu liên quan đến việc sử dụng, phát triển và triển khai hệ thống AI tạo sinh dưới sự kiểm soát của tổ chức chính phủ đều phải tuân theo Đạo luật Tiếp cận thông tin và Đạo luật Thư viện và Lưu trữ Canada và phải được lưu giữ và xử lý tương ứng.
Vấn đề tiềm ẩn và thực tiễn tốt nhất
Phần này cung cấp tổng quan về một số lĩnh vực rủi ro và đưa ra các thực tiễn tốt nhất cho việc sử dụng AI tạo sinh có trách nhiệm trong các tổ chức liên bang. Ngoài các thực tiễn tốt nhất cho người dùng AI tạo sinh trong chính phủ liên bang, có các thực tiễn tốt nhất cụ thể cho các tổ chức liên bang phát triển hoặc triển khai các công cụ này để đảm bảo rủi ro được đánh giá và giảm thiểu thích hợp, và để phân biệt giữa trách nhiệm của người dùng và nhà phát triển. Không phải tất cả thực tiễn tốt nhất đều áp dụng trong mọi tình huống, vì vậy các tổ chức liên bang được khuyến khích điều chỉnh cách tiếp cận của họ cho từng trường hợp sử dụng.
a. Bảo vệ thông tin
Vấn đề: một số công cụ AI tạo sinh không đáp ứng yêu cầu bảo mật thông tin của chính phủ
Việc bảo vệ thông tin cá nhân, được phân loại, được bảo vệ và độc quyền là rất quan trọng khi sử dụng hệ thống AI tạo sinh. Nhà cung cấp của một số công cụ AI tạo sinh có thể kiểm tra dữ liệu đầu vào hoặc sử dụng nó để đào tạo thêm cho mô hình của họ, điều này có thể dẫn đến vi phạm quyền riêng tư và bảo mật. Rủi ro cũng có thể phát sinh từ dữ liệu đầu vào được lưu trữ trên máy chủ không do GC kiểm soát, nơi dữ liệu có thể được lưu giữ lâu hơn cần thiết, được truy cập, phân phối thêm, hoặc dễ bị vi phạm dữ liệu. Chú thích16 Một số công cụ, công khai hoặc khác, có thể không đáp ứng yêu cầu quyền riêng tư và bảo mật được quy định trong luật pháp và chính sách liên bang. Phát triển hoặc triển khai hệ thống AI tạo sinh trên mạng an toàn của các tổ chức có thể giảm thiểu một số rủi ro, và các tổ chức nên tìm kiếm sự chấp thuận từ các cán bộ nội bộ của họ, như giám đốc an ninh, cán bộ được chỉ định cho an ninh mạng và giám đốc thông tin. Như một phần của những phê duyệt này, một đánh giá rủi ro chính thức và sự chấp nhận được khuyến nghị vì các biện pháp giảm thiểu bổ sung có thể cần thiết để giảm rủi ro xuống mức chấp nhận được.
Thực tiễn tốt nhất cho tất cả người dùng AI tạo sinh trong các tổ chức liên bang
Không nhập thông tin nhạy cảm hoặc cá nhân vào bất kỳ công cụ nào không do GC quản lý.
Không gửi truy vấn trên công cụ không do GC quản lý mà có thể làm suy giảm niềm tin của công chúng nếu chúng bị tiết lộ. Xem Phụ lục B của Chỉ thị về Dịch vụ và Kỹ thuật số để biết ví dụ về sử dụng mạng và thiết bị không được chấp nhận.
Hiểu cách hệ thống sử dụng dữ liệu đầu vào (ví dụ, liệu nó có được sử dụng làm dữ liệu đào tạo và liệu nó có thể truy cập bởi nhà cung cấp).
Yêu cầu dịch vụ pháp lý, giám đốc an ninh tổ chức, và đội ngũ quyền riêng tư xem xét điều khoản sử dụng của nhà cung cấp, chính sách quyền riêng tư và các tài liệu pháp lý khác trước khi sử dụng bất kỳ hệ thống nào để xử lý thông tin nhạy cảm hoặc độc quyền.
Sử dụng cơ sở hạ tầng và công cụ phù hợp với phân loại bảo mật của thông tin, theo Chỉ thị về quản lý bảo mật.
Tìm kiếm sự chấp thuận của giám đốc an ninh tổ chức trước khi sử dụng, mua sắm hoặc triển khai AI tạo sinh cho thông tin được bảo vệ hoặc nhạy cảm khác.
Xem xét các yêu cầu về cư trú thông tin và dữ liệu trong Chỉ thị về Dịch vụ và Kỹ thuật số và hướng dẫn liên quan trong Hướng dẫn về Dịch vụ và Kỹ thuật số.
Sử dụng tính năng "từ chối", nếu có thể, để đảm bảo lời nhắc không được sử dụng để đào tạo hoặc phát triển thêm hệ thống AI.
Thực tiễn tốt nhất bổ sung cho các tổ chức liên bang triển khai công cụ AI tạo sinh
Tiến hành kiểm tra hệ thống thường xuyên trước và trong quá trình vận hành hệ thống để đảm bảo rằng rủi ro về tác động bất lợi tiềm tàng, cũng như rủi ro liên quan đến việc sử dụng không thích hợp hoặc độc hại của hệ thống, được xác định và giảm thiểu.
Áp dụng phương pháp kiểm tra sâu hơn để xác định và giảm thiểu lỗ hổng trong trường hợp hệ thống sẽ được công khai. Điều này nên bao gồm kiểm tra thâm nhập, kiểm tra đối kháng hoặc đội đỏ.
Lập kế hoạch kiểm toán độc lập để đánh giá hệ thống AI tạo sinh so với khung đánh giá rủi ro và tác động. Tận dụng khung quản lý rủi ro hiện có, khi thích hợp. Xem hướng dẫn trên trang Quản lý rủi ro.
Phát triển kế hoạch ghi lại và phản hồi với sự kiện và sự cố an ninh mạng, phù hợp với Kế hoạch quản lý sự kiện an ninh mạng của Chính phủ Canada (GC CSEMP). Cập nhật kế hoạch khi cần thiết để giải quyết môi trường đe dọa đang phát triển.
Xem xét các thực tiễn tốt nhất như Hướng dẫn phát triển hệ thống AI an toàn của Trung tâm An ninh mạng quốc gia và Triển khai hệ thống AI an toàn của Cơ quan An ninh quốc gia.
b. Thiên lệch
Vấn đề: nội dung được tạo ra có thể khuếch đại thiên lệch hoặc ý tưởng có hại khác chiếm ưu thế trong dữ liệu đào tạo
Công cụ AI tạo sinh có thể tạo ra nội dung phân biệt đối xử hoặc không đại diện, hoặc bao gồm thiên lệch hoặc định kiến (ví dụ, thiên lệch liên quan đến nhiều yếu tố nhận dạng giao nhau như giới tính, chủng tộc và dân tộc). Chú thích17 Chú thích18 Chú thích19 Nhiều mô hình tạo sinh được đào tạo trên lượng lớn dữ liệu từ Internet, thường là nguồn gốc của những thiên lệch này. Ví dụ, dữ liệu đào tạo có khả năng phản ánh thiên lệch lịch sử chiếm ưu thế và có thể không bao gồm quan điểm ít phổ biến hơn trong dữ liệu hoặc đã xuất hiện kể từ khi mô hình được đào tạo. Chú thích17 Các nguồn khác có thể góp phần tạo ra nội dung thiên lệch bao gồm lọc dữ liệu, có thể khuếch đại thiên lệch trong tập đào tạo ban đầu, Chú thích20 cách đặt lời nhắc, Chú thích21 và thiên lệch của mô hình. Việc sử dụng rộng rãi các công nghệ này có thể khuếch đại hoặc củng cố những thiên lệch này và quan điểm chiếm ưu thế, và dẫn đến ít đa dạng hơn trong ý tưởng, quan điểm và ngôn ngữ, Chú thích17 Chú thích22 cũng như tác hại tiềm tàng.
Thực tiễn tốt nhất cho tất cả người dùng AI tạo sinh trong các tổ chức liên bang
Tìm hiểu về thiên lệch, đa dạng, hòa nhập, chống phân biệt chủng tộc, và giá trị cùng đạo đức để cải thiện khả năng xác định nội dung thiên lệch, không bao quát hoặc phân biệt đối xử.
Xem xét nội dung được tạo ra để đảm bảo nó phù hợp với cam kết, giá trị và đạo đức của GC, và đáp ứng nghĩa vụ pháp lý. Việc xem xét này bao gồm đánh giá thiên lệch và liên kết định kiến.
Xây dựng lời nhắc để tạo ra nội dung cung cấp quan điểm toàn diện và giảm thiểu thiên lệch.
Cố gắng hiểu dữ liệu đã được sử dụng để đào tạo công cụ, ví dụ, nó đến từ đâu, nó bao gồm những gì, và nó được chọn và chuẩn bị như thế nào.
Chỉ rõ khi nội dung đã được tạo ra bởi AI tạo sinh.
Thực tiễn tốt nhất bổ sung cho các tổ chức liên bang triển khai công cụ AI tạo sinh
Xem xét thiên lệch tiềm tàng và cách tiếp cận để giảm thiểu chúng từ giai đoạn lập kế hoạch và thiết kế, bao gồm sử dụng phân tích dựa trên giới tính cộng (GBA Plus) để hiểu cách triển khai công cụ AI tạo sinh có thể tác động đến các nhóm dân số khác nhau. Không triển khai công cụ nếu bạn không thể quản lý rủi ro về đầu ra thiên lệch.
Tham khảo ý kiến chuyên gia GBA Plus trong tổ chức của bạn và tham khảo ý kiến những người sẽ bị ảnh hưởng trực tiếp bởi việc triển khai công cụ (như khách hàng) trong các giai đoạn lập kế hoạch và thiết kế, cũng như trong các giai đoạn đánh giá và kiểm toán, để xác định tác động của việc sử dụng các công cụ này đối với các nhóm dân số khác nhau và phát triển biện pháp giải quyết bất kỳ tác động tiêu cực nào.
Kiểm tra thiên lệch trong dữ liệu, mô hình và đầu ra trước khi triển khai công cụ, và trên cơ sở liên tục.
Theo dõi thường xuyên hệ thống về tác động bất lợi sau khi triển khai.
Phản ánh sự đa dạng dân số khi triển khai trợ lý ảo, ví dụ, bằng cách thay đổi giới tính của trợ lý.
c. Chất lượng
Vấn đề: nội dung được tạo ra có thể không chính xác, không mạch lạc hoặc không đầy đủ
Công nghệ AI tạo sinh có thể tạo ra nội dung có vẻ được phát triển tốt, đáng tin cậy và hợp lý nhưng thực tế là không chính xác, vô nghĩa hoặc không nhất quán với dữ liệu nguồn. Chú thích23 Chú thích6 Nội dung này đôi khi được gọi là "ảo giác". Ngoài ra, nội dung được tạo ra bởi công cụ AI có thể không cung cấp cái nhìn toàn diện về một vấn đề. Thay vào đó, nó có thể tập trung vào quan điểm phổ biến trong dữ liệu đào tạo. Chú thích17 Nội dung có thể bị lỗi thời, tùy thuộc vào khoảng thời gian dữ liệu đào tạo bao gồm và liệu hệ thống có quyền truy cập trực tiếp vào dữ liệu gần đây hay không. Cũng có thể có sự khác biệt về chất lượng đầu ra bằng tiếng Anh và tiếng Pháp, tùy thuộc vào mô hình, nhiệm vụ và lời nhắc. Chất lượng đầu ra trong mỗi ngôn ngữ nên được đánh giá để đảm bảo tuân thủ yêu cầu ngôn ngữ chính thức.
Các rủi ro liên quan đến nội dung không chính xác sẽ thay đổi tùy thuộc vào bối cảnh và nên được đánh giá. Ví dụ, sử dụng công cụ AI tạo sinh để học về một chủ đề có thể tạo ra thông tin không chính xác hoặc nguồn không tồn tại. Chú thích24 Nếu kết quả được sử dụng trong việc ra quyết định, chúng có thể dẫn đến đối xử không công bằng với một số người hoặc chính sách sai lầm. Ngoài ra, khi xem xét việc sử dụng các công cụ này trong truyền thông hướng tới công chúng, điều quan trọng là chính phủ không chia sẻ thông tin không chính xác, điều này sẽ góp phần tạo ra thông tin sai lệch và làm suy giảm niềm tin của công chúng.
Thực tiễn tốt nhất cho tất cả người dùng AI tạo sinh trong các tổ chức liên bang
Chỉ rõ rằng bạn đã sử dụng AI tạo sinh để phát triển nội dung.
Không coi nội dung được tạo ra là có thẩm quyền. Xem xét nó về độ chính xác thực tế và ngữ cảnh bằng cách, ví dụ, kiểm tra nó với thông tin từ nguồn đáng tin cậy hoặc nhờ đồng nghiệp có chuyên môn xem xét phản hồi.
Xác minh thông tin cá nhân được tạo ra bằng AI tạo sinh để đảm bảo nó chính xác, cập nhật và đầy đủ.
Đánh giá tác động của đầu ra không chính xác. Không sử dụng AI tạo sinh khi cần độ chính xác thực tế hoặc tính toàn vẹn dữ liệu.
Cố gắng hiểu chất lượng và nguồn của dữ liệu đào tạo.
Xem xét khả năng xác định nội dung không chính xác của bạn trước khi sử dụng AI tạo sinh. Nếu bạn không thể xác nhận chất lượng của nội dung, đừng sử dụng nó.
Học cách tạo lời nhắc hiệu quả và cung cấp phản hồi để tinh chỉnh đầu ra nhằm giảm thiểu việc tạo ra nội dung không chính xác.
Không sử dụng công cụ AI tạo sinh làm công cụ tìm kiếm trừ khi nguồn được cung cấp để bạn có thể xác minh nội dung.
Thực tiễn tốt nhất bổ sung cho các tổ chức liên bang triển khai công cụ AI tạo sinh
Kiểm tra hiệu năng và độ vững chắc trên nhiều trường hợp sử dụng khác nhau trước khi triển khai. Điều này bao gồm đảm bảo chất lượng của công cụ và đầu ra đáp ứng yêu cầu ngôn ngữ chính thức.
Đánh giá chất lượng dữ liệu đào tạo khi tinh chỉnh mô hình.
Sử dụng nền tảng và kỹ thuật xây dựng lời nhắc để các mô hình xây dựng phản hồi chỉ từ thông tin bạn cung cấp và kiểm soát.
Thông báo cho người dùng rằng họ đang tương tác với AI tạo sinh.
Khi nội dung được tạo ra bởi AI, bao gồm liên kết đến nguồn có thẩm quyền để cung cấp cho người dùng ngữ cảnh bổ sung và thúc đẩy tính minh bạch.
Cung cấp thông tin về sử dụng thích hợp của các công cụ, khả năng và hạn chế của hệ thống, biện pháp giảm thiểu rủi ro, nguồn dữ liệu đào tạo và cách phát triển mô hình.
Theo dõi hiệu năng của công cụ AI tạo sinh liên tục để hiểu tác động tiềm tàng và đảm bảo chúng đang đáp ứng mục tiêu hiệu năng. Ghi lại vấn đề, tạm dừng triển khai, và cập nhật công cụ nếu mức hiệu năng không đạt được.
d. Quyền tự chủ của công chức
Vấn đề: phụ thuộc quá mức vào AI có thể can thiệp không đúng vào phán đoán, ngăn chặn sáng tạo và làm xói mòn khả năng lực lượng lao động
Phụ thuộc quá mức vào công cụ AI tạo sinh có thể can thiệp vào quyền tự chủ và phán đoán cá nhân. Ví dụ, một số người dùng có thể có xu hướng chấp nhận khuyến nghị hệ thống hoặc đầu ra khác mà không phê phán, điều này có thể không chính xác. Chú thích25 Chú thích26 Phụ thuộc quá mức vào hệ thống AI có thể là dấu hiệu của thiên lệch tự động hóa, là xu hướng ưu tiên kết quả được tạo ra bởi hệ thống tự động, ngay cả khi có thông tin trái ngược từ nguồn không tự động. Chú thích25 Ngoài ra, thiên lệch xác nhận có thể góp phần vào sự phụ thuộc quá mức Chú thích25 vì đầu ra của hệ thống AI tạo sinh có thể củng cố quan niệm có sẵn của người dùng, đặc biệt là khi lời nhắc được viết theo cách phản ánh giả định và niềm tin của họ. Chú thích27 Sự phụ thuộc quá mức vào hệ thống AI có thể dẫn đến suy giảm tư duy phản biện. Điều này có thể hạn chế sự đa dạng trong suy nghĩ, ngăn chặn sáng tạo và đổi mới và dẫn đến phân tích một phần hoặc không đầy đủ. Do đó, phụ thuộc quá mức vào AI có thể cản trở khả năng của nhân viên trong việc xây dựng và duy trì các kỹ năng họ cần để thực hiện nhiệm vụ được giao cho hệ thống AI tạo sinh, điều này có thể làm xói mòn khả năng lực lượng lao động.
Thực tiễn tốt nhất cho tất cả người dùng AI tạo sinh trong các tổ chức liên bang
Xem xét liệu bạn có cần sử dụng AI tạo sinh để đáp ứng nhu cầu người dùng và tổ chức hay không.
Xem xét khả năng và giới hạn của AI tạo sinh khi giao nhiệm vụ và xem xét đầu ra hệ thống.
Xây dựng kiến thức về AI để bạn có thể đánh giá phê phán các công cụ này và đầu ra của chúng.
Sử dụng công cụ AI tạo sinh như trợ giúp, không phải như thay thế. Không thuê ngoài kỹ năng mà bạn không hiểu hoặc không có.
Hình thành quan điểm riêng trước khi tìm kiếm ý tưởng hoặc khuyến nghị từ công cụ AI.
Sử dụng từ ngữ trung lập khi xây dựng lời nhắc để giảm thiểu đầu ra thiên lệch.
Luôn xem xét nội dung được tạo ra bởi AI, ngay cả khi hệ thống dường như đáng tin cậy trong việc cung cấp phản hồi chính xác.
e. Rủi ro pháp lý
Vấn đề: AI tạo sinh đặt ra rủi ro cho quyền con người, quyền riêng tư, bảo vệ sở hữu trí tuệ, và công bằng thủ tục
Việc chính phủ sử dụng hệ thống AI tạo sinh đặt ra rủi ro cho quyền và nghĩa vụ pháp lý của các tổ chức liên bang và khách hàng của họ. Những rủi ro này phát sinh từ dữ liệu được sử dụng để đào tạo mô hình AI, cách hệ thống xử lý dữ liệu đầu vào, và chất lượng đầu ra hệ thống.
Việc sử dụng tài liệu được bảo vệ bản quyền như bài báo, sách, mã, tranh hoặc âm nhạc bởi nhà cung cấp hoặc tổ chức liên bang để đào tạo mô hình AI có thể vi phạm quyền sở hữu trí tuệ. Việc sử dụng hoặc sao chép đầu ra được tạo ra bởi các mô hình này cũng có thể vi phạm quyền như vậy nếu chúng chứa tài liệu giống hệt hoặc tương tự đáng kể với tác phẩm được bảo vệ bản quyền. Hơn nữa, quyền sở hữu nội dung được tạo ra bởi hoặc với sự trợ giúp của AI tạo sinh là không chắc chắn. Quyền riêng tư cũng có thể bị rủi ro vì dữ liệu được sử dụng để đào tạo mô hình AI tạo sinh có thể bao gồm thông tin cá nhân được thu thập hoặc sử dụng bất hợp pháp, chẳng hạn như thông tin cá nhân thu được từ nguồn trực tuyến có thể truy cập công khai.
Rủi ro cũng có thể phát sinh từ tính mờ ám của mô hình AI tạo sinh và tiềm năng của chúng trong việc tạo ra đầu ra không chính xác, thiên lệch hoặc không nhất quán. Sự mờ ám này làm cho việc theo dõi và hiểu cách hệ thống AI tạo ra đầu ra trở nên khó khăn, điều này có thể làm suy yếu công bằng thủ tục trong trường hợp tổ chức liên bang có nghĩa vụ cung cấp cho khách hàng lý do cho quyết định hành chính, chẳng hạn như quyết định từ chối quyền lợi. Chất lượng đầu ra AI cũng có thể ảnh hưởng đến quyền pháp lý của cá nhân. Ví dụ, đầu ra thiên lệch có thể dẫn đến phân biệt đối xử trong dịch vụ, có khả năng vi phạm quyền con người.
Những rủi ro này vượt ra ngoài kịch bản ra quyết định. Khi các tổ chức liên bang sử dụng công cụ AI tạo sinh để giúp công chúng tìm thông tin (ví dụ, chatbot trên trang web tổ chức) hoặc để tạo ra truyền thông công khai, có nguy cơ các công cụ này sẽ tạo ra nội dung không thích hợp hoặc thông tin sai lệch có thể góp phần hoặc gây ra tác hại mà chính phủ có thể phải chịu trách nhiệm.
Thực tiễn tốt nhất cho tất cả người dùng AI tạo sinh trong các tổ chức liên bang
Tham khảo ý kiến dịch vụ pháp lý của tổ chức bạn về rủi ro pháp lý của việc triển khai công cụ AI tạo sinh hoặc sử dụng chúng trong cung cấp dịch vụ. Việc tham khảo ý kiến có thể liên quan đến việc xem xét điều khoản sử dụng của nhà cung cấp, chính sách bản quyền, chính sách quyền riêng tư và các tài liệu pháp lý khác.
Tuân thủ Chỉ thị về Ra quyết định tự động khi sử dụng AI tạo sinh trong ra quyết định hành chính.
Kiểm tra xem đầu ra hệ thống có giống hệt hoặc tương tự đáng kể với tài liệu được bảo vệ bản quyền hay không (xem phần Câu hỏi thường gặp để biết thêm thông tin về cách thực hiện điều này). Ghi nguồn đúng cách, nếu thích hợp, hoặc loại bỏ tài liệu có vấn đề để giảm thiểu nguy cơ vi phạm sở hữu trí tuệ.
Tham khảo ý kiến cán bộ được chỉ định về cấp phép và quản lý bản quyền Crown nếu bạn đang lên kế hoạch đưa đầu ra vào truyền thông công khai, theo Thủ tục xuất bản.
Đánh giá đầu ra hệ thống về sự không chính xác thực tế, thiên lệch hoặc ý tưởng có hại có thể mâu thuẫn với giá trị GC.
Cập nhật về phát triển pháp lý và chính sách liên quan đến quy định AI.
Thực tiễn tốt nhất bổ sung cho các tổ chức liên bang triển khai công cụ AI tạo sinh
Xác minh tính hợp pháp của phương pháp được sử dụng để lấy dữ liệu đào tạo mô hình AI và đảm bảo bạn có quyền sử dụng dữ liệu cho mục đích này.
Ghi lại nguồn gốc dữ liệu và bạn có ủy quyền từ chủ sở hữu bản quyền.
Khi khả thi, đào tạo mô hình của bạn sử dụng dữ liệu mã nguồn mở mà bạn đã xác nhận có thể sử dụng theo cách này.
Minh bạch khi bạn sử dụng AI tạo sinh. Ví dụ, thông báo cho người dùng nếu họ đang tương tác với hệ thống thay vì con người. Khi thích hợp, bao gồm tuyên bố từ chối trách nhiệm để giảm thiểu rủi ro trách nhiệm pháp lý và tăng tính minh bạch.
f. Phân biệt con người với máy móc
Vấn đề: mọi người có thể không biết rằng họ đang tương tác với hệ thống AI, hoặc họ có thể sai lầm cho rằng AI đang được sử dụng
Đại diện hội thoại hoặc chatbot sử dụng AI tạo sinh có thể tạo ra phản hồi giống con người đến mức có thể khó phân biệt chúng với phản hồi của người thật. Chú thích28 Kết quả là, khách hàng có thể nghĩ họ đang tương tác với con người. Tương tự, khách hàng có thể nghĩ email họ nhận được là do người viết khi thực tế nó được tạo ra bởi công cụ AI. Mặt khác, khách hàng có thể nghĩ họ đang tương tác với công cụ AI khi thực tế họ đang giao tiếp với người thật. Tính minh bạch về việc liệu khách hàng đang tương tác với người hay chatbot là rất cần thiết để đảm bảo khách hàng không bị hiểu lầm và để duy trì niềm tin vào chính phủ.
Thực tiễn tốt nhất cho tất cả người dùng AI tạo sinh trong các tổ chức liên bang
Truyền đạt rõ ràng khi và cách bạn đang sử dụng AI trong tương tác với công chúng.
Thông báo cho người dùng khi văn bản, âm thanh hoặc tin nhắn hình ảnh gửi đến họ được tạo ra bởi AI.
Thực tiễn tốt nhất bổ sung cho các tổ chức liên bang triển khai công cụ AI tạo sinh
Cung cấp phương tiện thay thế không tự động để giao tiếp.
Sử dụng hình mờ để xác định nội dung được tạo ra bởi AI.
Công bố thông tin về hệ thống, chẳng hạn như mô tả bằng ngôn ngữ đơn giản về cách thức hoạt động, lý do tổ chức của bạn đang sử dụng nó và các bước đã thực hiện để đảm bảo chất lượng đầu ra.
g. Tác động môi trường
Vấn đề: phát triển và sử dụng hệ thống AI tạo sinh có thể có chi phí môi trường đáng kể
Phát triển và sử dụng hệ thống AI tạo sinh có thể là nguồn đáng kể của phát thải khí nhà kính (GHG) và sử dụng nước. Những phát thải này không chỉ đến từ tính toán được sử dụng để đào tạo và vận hành mô hình tạo sinh mà còn từ sản xuất và vận chuyển máy chủ hỗ trợ chương trình AI. Ngoài ra, trung tâm dữ liệu tiêu thụ nhiều năng lượng và tiêu thụ lượng lớn nước cho làm mát tại chỗ và sản xuất điện ngoài cơ sở. Chú thích29 Mặc dù AI tạo sinh có tiềm năng giúp chống lại biến đổi khí hậu, việc sử dụng nó phải cân bằng với nhu cầu hành động nhanh chóng và mạnh mẽ để giảm phát thải khí nhà kính toàn cầu và ngăn chặn thiệt hại không thể đảo ngược cho môi trường. Chú thích30
Thực tiễn tốt nhất cho tất cả người dùng AI tạo sinh trong các tổ chức liên bang
Sử dụng công cụ AI tạo sinh được lưu trữ trong trung tâm dữ liệu phát thải ròng bằng không hoặc trung tính carbon.
Chỉ sử dụng công cụ AI tạo sinh khi liên quan đến mục tiêu chương trình và kết quả mong muốn.
Hiểu rằng tác động môi trường của AI tạo sinh không chỉ đến từ việc sử dụng mà còn từ việc đào tạo mô hình và sản xuất các thành phần phần cứng chạy trung tâm dữ liệu, cũng như khai thác, sản xuất, lắp ráp, vận chuyển và thải bỏ chúng.
Thực tiễn tốt nhất bổ sung cho các tổ chức liên bang triển khai công cụ AI tạo sinh
Tìm hiểu xem nhà cung cấp AI của bạn có đặt bất kỳ mục tiêu giảm khí nhà kính nào không. Chú thích31
Tiến hành đánh giá tác động môi trường như một phần của đề xuất phát triển hoặc mua sắm công cụ AI tạo sinh. Đảm bảo bất kỳ quyết định mua sắm các công cụ này được thực hiện theo Chính sách mua sắm xanh.
Khuyến khích nhà phát triển minh bạch về tính bền vững bằng cách ưu tiên những người truyền đạt rõ ràng tác động môi trường của hệ thống AI thông qua báo cáo về tuân thủ Quy trình GHG. Chú thích32
Sử dụng công cụ nhận thức carbon để ước tính dấu chân carbon của hệ thống trước khi đào tạo hoặc sản xuất. Chú thích33
Sử dụng hướng dẫn này
Các tổ chức liên bang được khuyến khích sử dụng hướng dẫn này khi họ tiếp tục phát triển hướng dẫn riêng về việc sử dụng AI tạo sinh. Hướng dẫn này và cộng đồng sẽ tiếp tục phát triển.
Nguồn: Songai.vn