Hướng dẫn sử dụng Generative AI

Thoại Viết Hoàng
Thoại Viết Hoàng
Phản hồi: 0
Tổng quan
Các công cụ trí tuệ nhân tạo (AI) sáng tạo mang lại nhiều lợi ích tiềm năng cho các tổ chức của Chính phủ Canada (GC).

Hướng dẫn sử dụng Generative AI
Các tổ chức liên bang nên khám phá những ứng dụng tiềm năng của các công cụ AI tổng hợp để hỗ trợ và cải thiện hoạt động của họ. Tuy nhiên, vì những công cụ này đang phát triển nên không nên sử dụng chúng trong mọi trường hợp. Các tổ chức liên bang phải thận trọng và đánh giá rủi ro trước khi bắt đầu sử dụng chúng. Việc sử dụng các công cụ này nên được hạn chế ở những trường hợp có thể quản lý rủi ro một cách hiệu quả.
Tài liệu này cung cấp hướng dẫn sơ bộ cho các tổ chức liên bang về việc sử dụng các công cụ AI sáng tạo. Điều này bao gồm các trường hợp các công cụ này được các tổ chức liên bang triển khai. Nó cung cấp cái nhìn tổng quan về AI tổng hợp, xác định những thách thức và mối quan tâm liên quan đến việc sử dụng nó, đưa ra các nguyên tắc sử dụng nó một cách có trách nhiệm, đồng thời đưa ra những cân nhắc về chính sách và các phương pháp hay nhất.
Hướng dẫn này cũng tìm cách nâng cao nhận thức và thúc đẩy sự phối hợp giữa các tổ chức liên bang. Nó nhấn mạnh tầm quan trọng của việc thu hút các bên liên quan chính trước khi triển khai các công cụ AI tổng quát cho mục đích sử dụng công cộng và trước khi sử dụng chúng cho các mục đích như cung cấp dịch vụ. Các bên liên quan này bao gồm cố vấn pháp lý, chuyên gia về quyền riêng tư và bảo mật cũng như Văn phòng Giám đốc Thông tin tại Ban Thư ký Hội đồng Kho bạc Canada (TBS).
Hướng dẫn này bổ sung và hỗ trợ việc tuân thủ nhiều luật và chính sách hiện hành của liên bang, bao gồm cả các lĩnh vực về quyền riêng tư, an ninh, sở hữu trí tuệ và nhân quyền. Hướng dẫn này nhằm mục đích mang tính thường xanh vì TBS nhận thấy sự cần thiết phải lặp lại để theo kịp sự thay đổi về quy định và công nghệ.
AI sáng tạo là gì?
Chỉ thị về Ra quyết định tự động định nghĩa AI là công nghệ thông tin thực hiện các nhiệm vụ thường đòi hỏi năng lực trí tuệ sinh học để hoàn thành, chẳng hạn như hiểu ngôn ngữ nói, hành vi học tập hoặc giải quyết vấn đề.
AI sáng tạo là một loại AI tạo ra nội dung như văn bản, âm thanh, mã, video và hình ảnh. Chú thích cuối trang1 Nội dung này được tạo ra dựa trên thông tin mà người dùng nhập vào, bao gồm các lời nhắc (thường là các văn bản hướng dẫn ngắn)
Ví dụ về các công cụ AI tổng quát bao gồm các chatbot như ChatGPT và Bing Chat; GitHub Copilot, nơi tạo mã dựa trên lời nhắc bằng văn bản; và DALL-E, Midjourney và Stable Diffusion, tạo ra hình ảnh từ lời nhắc bằng văn bản hoặc hình ảnh. Ngoài ra, các mô hình AI tổng quát có thể được tinh chỉnh hoặc các mô hình tùy chỉnh có thể được đào tạo và triển khai để đáp ứng nhu cầu của tổ chức.
Nhiều mô hình AI tổng quát đã được đào tạo trên khối lượng lớn dữ liệu, bao gồm cả dữ liệu có sẵn công khai từ Internet. Dựa trên dữ liệu huấn luyện, các mô hình này tạo ra nội dung có khả năng đáp ứng theo lời nhắc, chẳng hạn như Footnote3, bằng cách dự đoán từ tiếp theo trong câu. Các kỹ thuật như giám sát con người và học tăng cường cũng có thể được áp dụng để cải thiện hơn nữa kết quả đầu ra. Footnote3 và người dùng có thể cung cấp phản hồi hoặc thay đổi lời nhắc của họ để tinh chỉnh phản hồi. Do đó, AI sáng tạo có thể tạo ra nội dung trông giống như do con người tạo ra.
AI sáng tạo có thể được sử dụng để thực hiện hoặc hỗ trợ các nhiệm vụ khác nhau bao gồm:
viết và chỉnh sửa tài liệu và email
các tác vụ mã hóa, chẳng hạn như gỡ lỗi và tạo mẫu cũng như các giải pháp chung tóm tắt thông tin
động não nghiên cứu, dịch thuật và học tập cung cấp hỗ trợ cho khách hàng (ví dụ: trả lời câu hỏi, khắc phục sự cố)
Những thách thức và mối quan tâm
Trước khi các tổ chức liên bang bắt đầu sử dụng các công cụ AI tổng quát, họ phải đánh giá và giảm thiểu một số rủi ro về đạo đức, pháp lý và các rủi ro khác. Ví dụ: những công cụ này có thể tạo ra nội dung không chính xác; khuếch đại thành kiến; và vi phạm sở hữu trí tuệ, quyền riêng tư và các luật khác. Hơn nữa, một số công cụ có thể không đáp ứng các yêu cầu về bảo mật và quyền riêng tư của liên bang. Khi các tổ chức sử dụng những công cụ này, họ phải bảo vệ thông tin cá nhân và dữ liệu nhạy cảm. Ngoài ra, vì những công cụ này tạo ra nội dung có thể trông giống như do con người tạo ra nên mọi người có thể không biết được liệu họ đang tương tác với một người hay một công cụ. Việc sử dụng những công cụ này cũng có thể ảnh hưởng đến kỹ năng và khả năng phán đoán của công chức và có thể gây ra tổn thất về môi trường.
Các công cụ AI sáng tạo dựa trên các mô hình đặt ra nhiều thách thức khác nhau, bao gồm cả tính minh bạch và khả năng giải thích hạn chế. Họ cũng dựa vào dữ liệu đào tạo khó tiếp cận và đánh giá. Những thách thức này một phần xuất phát từ quy mô mô hình lớn, khối lượng dữ liệu đào tạo lớn và tính chất độc quyền của nhiều công cụ. Ngoài ra, kết quả đầu ra của các mô hình bị hạn chế bởi các lời nhắc và dữ liệu huấn luyện, có thể thiếu ngữ cảnh không được công bố công khai trên Internet. Dữ liệu đào tạo cũng có thể đã lỗi thời; ví dụ: ChatGPT được đào tạo về dữ liệu đến năm 2021 nên khả năng cung cấp thông tin về các sự kiện sau đó bị hạn chế. Footnote4 Footnote5 Ngoài ra, những công cụ này còn có những hạn chế làm giảm tiện ích của chúng cho một số mục đích nhất định; ví dụ, họ có xu hướng thực hiện kém các nhiệm vụ liên quan đến cảm xúc. Chú thích6 Chú thích7
AI sáng tạo cũng có thể gây ra rủi ro cho tính toàn vẹn và an ninh của các tổ chức liên bang, do các tác nhân đe dọa có thể lạm dụng nó. Các tổ chức liên bang nên nhận thức được những rủi ro này và đảm bảo rằng các biện pháp giảm thiểu cần thiết được áp dụng theo hướng dẫn của Trung tâm An ninh mạng Canada về AI tổng hợp.
Cách tiếp cận được đề xuất
Các tổ chức liên bang nên khám phá cách họ có thể sử dụng các công cụ AI tổng hợp để hỗ trợ hoạt động của mình và cải thiện kết quả cho người dân Canada. Tuy nhiên, trước những thách thức và lo ngại liên quan đến các công cụ này, các tổ chức nên đánh giá và giảm thiểu rủi ro, đồng thời nên hạn chế sử dụng chúng ở những hoạt động mà họ có thể quản lý rủi ro một cách hiệu quả. Với việc áp dụng ngày càng tăng các công nghệ này trong các lĩnh vực khác nhau và bởi công chúng, việc sử dụng chúng trong chính phủ sẽ giúp bắt kịp với bối cảnh kỹ thuật số đang phát triển.
Các tổ chức liên bang nên đánh giá tiềm năng của các công cụ này trong việc giúp đỡ nhân viên chứ không phải thay thế họ. Khi quyết định có nên sử dụng các công cụ AI tổng hợp hay không, công chức nên tham khảo hướng dẫn đưa ra quyết định có đạo đức trong phần 6 của Giá trị sống: Hướng dẫn thảo luận về “Quy tắc giá trị và đạo đức cho khu vực công”.
Để duy trì niềm tin của công chúng và đảm bảo việc sử dụng có trách nhiệm các công cụ AI tổng hợp, các tổ chức liên bang phải tuân thủ các nguyên tắc “NHANH HƠN”:
Công bằng: đảm bảo rằng nội dung từ các công cụ này không bao gồm hoặc khuếch đại thành kiến và tuân thủ các quyền con người, khả năng tiếp cận cũng như các nghĩa vụ về tính công bằng nội dung và thủ tục
Chịu trách nhiệm: chịu trách nhiệm về nội dung được tạo ra bởi các công cụ này. Điều này bao gồm việc đảm bảo nó có tính thực tế, hợp pháp, có đạo đức và tuân thủ các điều khoản sử dụng.
Bảo mật: đảm bảo rằng cơ sở hạ tầng và công cụ phù hợp để phân loại bảo mật thông tin và quyền riêng tư cũng như thông tin cá nhân được bảo vệ
Minh bạch: xác định nội dung được tạo bằng AI tổng hợp; thông báo cho người dùng rằng họ đang tương tác với một công cụ AI; ghi lại các quyết định và có thể đưa ra lời giải thích nếu các công cụ được sử dụng để hỗ trợ việc ra quyết định
Được giáo dục: tìm hiểu về điểm mạnh, hạn chế và cách sử dụng có trách nhiệm các công cụ; học cách tạo ra những lời nhắc hiệu quả và xác định những điểm yếu tiềm ẩn trong kết quả đầu ra
Có liên quan: đảm bảo việc sử dụng các công cụ AI tổng quát hỗ trợ nhu cầu của người dùng và tổ chức, đồng thời góp phần cải thiện kết quả cho người Canada; xác định các công cụ thích hợp cho nhiệm vụ; Công cụ AI không phải là lựa chọn tốt nhất trong mọi tình huống.
Để được hỗ trợ trong việc xác định cách sử dụng phù hợp các công cụ này, công chức nên tham gia với các bên liên quan như dịch vụ pháp lý, chuyên gia về quyền riêng tư và bảo mật của tổ chức họ, Giám đốc Văn phòng Thông tin, Giám đốc Văn phòng Dữ liệu và các chuyên gia về sự đa dạng và hòa nhập. Ngoài ra, Trung tâm An ninh Mạng Canada, Thống kê Canada và Văn phòng Giám đốc Thông tin tại TBS cũng sẵn sàng hỗ trợ các tổ chức liên bang trong việc sử dụng có trách nhiệm các công cụ này.
Những cân nhắc về chính sách và thực tiễn tốt nhất
Chỉ thị về việc ra quyết định tự động có được áp dụng không?
Chỉ thị về Ra quyết định tự động áp dụng cho các hệ thống tự động, bao gồm cả những hệ thống dựa vào AI, được sử dụng để gây ảnh hưởng hoặc đưa ra các quyết định hành chính. Giống như các hệ thống AI khác, hệ thống AI tổng quát có các khả năng cho phép chúng đưa ra đánh giá hoặc quyết định về khách hàng trong việc cung cấp dịch vụ. Ví dụ: hệ thống AI tổng hợp có thể được sử dụng để tóm tắt dữ liệu của khách hàng hoặc để xác định xem họ có đủ điều kiện nhận dịch vụ hay không. Chú thích8 Những cách sử dụng quản trị này có khả năng ảnh hưởng đến cách quan điểm và quyết định của một viên chức đối với một vụ việc, điều này có tác động đến quyền, lợi ích hoặc đặc quyền của khách hàng. Do đó, chỉ thị này áp dụng cho việc sử dụng các hệ thống AI tổng hợp để đưa ra hoặc thông báo các quyết định hành chính.
Tuy nhiên, AI tổng quát có thể không phù hợp để sử dụng trong việc ra quyết định hành chính ở giai đoạn này. Thiết kế và hoạt động của các mô hình tạo sinh có thể hạn chế khả năng của các tổ chức liên bang trong việc đảm bảo tính minh bạch, trách nhiệm giải trình và sự công bằng trong các quyết định do hệ thống AI tạo sinh đưa ra hoặc được thông báo bởi kết quả đầu ra của chúng. Ngoài ra, các điều khoản sử dụng đối với các sản phẩm AI tổng hợp của nhiều công ty công nghệ hàng đầu cấm sử dụng sản phẩm của họ để đưa ra các quyết định có tác động lớn. Ví dụ: OpenAI hướng dẫn người dùng không sử dụng ChatGPT trong các quyết định về tín dụng, việc làm, cơ sở giáo dục hoặc dịch vụ hỗ trợ công cộng; thực thi pháp luật và tư pháp hình sự; và di cư và tị nạn. Chú thích cuối trang9 Tương tự, Google cấm người dùng sản phẩm AI tổng hợp của họ đưa ra “các quyết định tự động trong các lĩnh vực ảnh hưởng đến quyền vật chất hoặc cá nhân hoặc hạnh phúc”. Chú thích10 Những hạn chế này nhấn mạnh tầm quan trọng của việc tuân thủ yêu cầu của chỉ thị về việc tư vấn các dịch vụ pháp lý trong giai đoạn thiết kế của một dự án tự động hóa. Việc tham vấn cho phép các tổ chức liên bang hiểu được những rủi ro pháp lý của việc sử dụng hành chính các hệ thống AI tổng hợp cho cả chính họ và cho khách hàng của họ.Không phải tất cả việc sử dụng AI tạo ra đều phải tuân theo chỉ thị này. Ví dụ: việc sử dụng các công cụ sáng tạo trong nghiên cứu hoặc để động não, lập kế hoạch hoặc soạn thảo thư từ thông thường nằm ngoài phạm vi của chỉ thị. Tuy nhiên, những mục đích sử dụng phi hành chính như vậy vẫn phải tuân theo luật pháp và chính sách chi phối các tổ chức liên bang.
Cân nhắc về quyền riêng tư
Giống như bất kỳ hệ thống trực tuyến nào, không nên nhập thông tin cá nhân vào công cụ hoặc dịch vụ AI tổng hợp trừ khi có hợp đồng với nhà cung cấp và nêu rõ cách sử dụng và bảo vệ thông tin đó. Trước khi sử dụng công cụ AI tổng hợp, các tổ chức liên bang cũng phải đảm bảo rằng việc thu thập và sử dụng thông tin cá nhân, bao gồm cả thông tin được sử dụng để đào tạo công cụ này, đáp ứng các nghĩa vụ về quyền riêng tư của họ.
Tất cả thông tin cá nhân được sử dụng, tạo ra hoặc thu được thông qua và tiết lộ cho các tổ chức liên bang sử dụng AI tổng hợp đều phải tuân theo các yêu cầu của Đạo luật quyền riêng tư và các công cụ chính sách liên quan. Điều này có nghĩa rằng: thông tin cá nhân chỉ có thể được thu thập nếu nó liên quan trực tiếp đến chương trình hoặc hoạt động nó chỉ có thể được sử dụng cho mục đích mà nó được thu thập hoặc cho mục đích sử dụng phù hợp với mục đích đó nó có giới hạn tiết lộ được phép nêu trong luật các tổ chức phải minh bạch về cách họ xử lý và bảo vệ thông tin cá nhân họ thu thập khi thông tin đó nằm dưới sự kiểm soát của chính phủ
Rủi ro về quyền riêng tư sẽ thay đổi tùy theo cách công cụ AI thu thập và xử lý thông tin về các cá nhân và có thể đưa ra quyết định về họ. Ví dụ: một công cụ AI có thể quyết định xem ai đó có đủ điều kiện nhận dịch vụ hay không, xác định mức độ lợi ích mà ai đó được hưởng hoặc xử lý dữ liệu khảo sát để đưa ra định hướng chính sách.
Đạo luật về quyền riêng tư yêu cầu tổ chức chính phủ thực hiện tất cả các bước hợp lý để đảm bảo rằng thông tin cá nhân được tổ chức đó sử dụng cho mục đích hành chính là chính xác, cập nhật và đầy đủ nhất có thể. Khi sử dụng hệ thống AI tổng hợp để đưa ra hoặc thông báo các quyết định về cá nhân, các tổ chức liên bang phải tin tưởng rằng thông tin cá nhân mà hệ thống thu thập, tạo hoặc sử dụng là chính xác. Vì lý do này, việc thu thập trực tiếp từ cá nhân là cần thiết trong hầu hết các trường hợp. Việc thu thập trực tiếp cũng cho phép cá nhân được thông báo về việc thu thập cũng như cách thông tin của họ sẽ được sử dụng và quản lý.
Nếu đầu ra của một công cụ AI tổng hợp tạo ra thông tin cá nhân mới thì thông tin mới đó cũng phải được quản lý theo yêu cầu về quyền riêng tư. Ví dụ: bản tóm tắt ứng dụng cho một dịch vụ hoặc lợi ích do công cụ AI tổng hợp tạo ra có thể tạo thành thông tin cá nhân mới. Người dùng nên xác thực mọi thông tin cá nhân được tạo bởi công cụ AI tổng hợp để đảm bảo rằng thông tin đó chính xác, cập nhật và đầy đủ. Ngoài ra, người dùng phải đảm bảo rằng mọi thông tin cá nhân mới không được tiết lộ vì mục đích không phù hợp với mục đích thu thập thông tin đó. Từ ví dụ trên, việc chia sẻ thông tin mới về cá nhân với một chương trình khác vì lợi ích không liên quan có thể không phù hợp và có thể cấu thành hành vi vi phạm quyền riêng tư.
Các tổ chức liên bang cũng phải đảm bảo rằng tất cả thông tin cá nhân họ thu thập và sử dụng có thể được cung cấp cho cá nhân liên quan và cá nhân đó có thể truy cập và chỉnh sửa thông tin đó theo yêu cầu. Các tổ chức liên bang phải lưu giữ thông tin cá nhân được sử dụng để đưa ra quyết định về một cá nhân trong ít nhất hai năm. Điều này giúp cá nhân có đủ thời gian để thực hiện quyền truy cập và chỉnh sửa thông tin. Các tổ chức liên bang không nên lưu giữ thông tin cá nhân lâu hơn yêu cầu. Các tổ chức liên bang lưu giữ thông tin cá nhân càng lâu thì khả năng xảy ra vi phạm quyền riêng tư càng cao.
Việc loại bỏ nhận dạng và sử dụng dữ liệu tổng hợp có thể giúp các tổ chức giảm tác động và khả năng vi phạm quyền riêng tư khi đào tạo, sử dụng và đánh giá kết quả đầu ra của các công cụ AI tổng hợp. Thông báo triển khai quyền riêng tư 2023-01: Quá trình hủy nhận dạng chứa nhiều thông tin hơn về các kỹ thuật bảo vệ quyền riêng tư này. Các biện pháp bảo vệ khác như kiểm soát hành chính, quyền truy cập và kiểm toán cũng rất quan trọng để giảm nguy cơ vô tình tiết lộ hoặc truy cập trái phép, tái nhận dạng hoặc suy luận và nói chung là bảo vệ quyền riêng tư của các cá nhân.
Trước khi xem xét việc mua sắm, sử dụng hoặc triển khai các công cụ AI tổng hợp, các quan chức về quyền riêng tư của tổ chức liên bang phải xác định xem có cần Đánh giá tác động đến quyền riêng tư hay không.
Khi các tổ chức liên bang đang xây dựng các giải pháp CNTT sử dụng AI tổng hợp, họ phải đảm bảo đáp ứng các yêu cầu về quyền riêng tư. Playbook về quyền riêng tư kỹ thuật số chứa thêm thông tin về các yêu cầu này và cách kết hợp hướng dẫn về quyền riêng tư vào các giải pháp CNTT sử dụng AI tổng hợp.
Các vấn đề tiềm ẩn và phương pháp hay nhất sau đây cung cấp tổng quan ngắn gọn về một số lĩnh vực rủi ro và đưa ra các phương pháp thực hành tốt nhất để sử dụng AI có trách nhiệm trong các tổ chức liên bang. Ngoài các phương pháp thực hành tốt nhất được xác định cho tất cả người dùng AI tổng hợp trong chính phủ liên bang, các phương pháp thực hành tốt nhất dành riêng cho các tổ chức liên bang đang phát triển hoặc triển khai các công cụ này cũng được xác định để đảm bảo rằng rủi ro được đánh giá và giảm thiểu một cách thích hợp cũng như để phân biệt trách nhiệm của người dùng. và các nhà phát triển.
Bảo vệ thông tin
Vấn đề: một số công cụ AI tổng quát không đáp ứng các yêu cầu bảo mật thông tin của chính phủ
Việc bảo vệ thông tin cá nhân, thông tin mật, được bảo vệ và độc quyền là rất quan trọng khi sử dụng các hệ thống AI tổng hợp. Các nhà cung cấp một số công cụ AI tổng hợp có thể kiểm tra dữ liệu đầu vào hoặc sử dụng dữ liệu này để đào tạo thêm cho các mô hình của họ, điều này có thể dẫn đến vi phạm quyền riêng tư và bảo mật. Rủi ro cũng có thể phát sinh từ việc dữ liệu đầu vào được lưu trữ trên các máy chủ không do GC kiểm soát, nơi dữ liệu có thể được lưu giữ lâu hơn mức cần thiết, có thể truy cập được, phân phối thêm hoặc dễ bị vi phạm dữ liệu. Chú thích cuối trang11 Một số công cụ, dù công khai hay không, có thể không đáp ứng các yêu cầu về quyền riêng tư và bảo mật được thiết lập trong chính sách và luật liên bang.
Các phương pháp thực hành tốt nhất cho tất cả người dùng AI sáng tạo trong các tổ chức liên bang
Không nhập thông tin cá nhân hoặc nhạy cảm vào bất kỳ công cụ nào không do GC quản lý.
Không gửi truy vấn về các công cụ không do GC quản lý vì có thể làm giảm lòng tin của công chúng nếu chúng bị tiết lộ. Tham khảo Phụ lục B của Chỉ thị về Dịch vụ và Kỹ thuật số để biết ví dụ về các cách sử dụng không được chấp nhận.
Hiểu cách hệ thống sử dụng dữ liệu đầu vào (ví dụ: dữ liệu đó được sử dụng làm dữ liệu đào tạo hay nhà cung cấp có thể truy cập).
Yêu cầu các dịch vụ pháp lý và giám đốc an ninh bộ phận (CSO) xem xét các điều khoản sử dụng, chính sách quyền riêng tư và các tài liệu pháp lý khác của nhà cung cấp trước khi sử dụng bất kỳ hệ thống nào để xử lý thông tin nhạy cảm hoặc độc quyền.
Sử dụng cơ sở hạ tầng và công cụ phù hợp để phân loại bảo mật thông tin, theo Chỉ thị về Quản lý bảo mật.
Tham khảo ý kiến
CSO của bộ trước khi sử dụng, mua sắm hoặc triển khai AI tổng hợp cho thông tin được bảo vệ hoặc thông tin nhạy cảm khác.
Xem xét các yêu cầu về nơi lưu trữ thông tin và dữ liệu trong Chỉ thị về Dịch vụ và Kỹ thuật số cũng như hướng dẫn liên quan trong Hướng dẫn về Dịch vụ và Kỹ thuật số.
Sử dụng tính năng “chọn không tham gia”, nếu có thể, để đảm bảo rằng lời nhắc không được sử dụng để đào tạo hoặc phát triển thêm hệ thống AI.
Các phương pháp thực hành tốt nhất bổ sung dành cho các tổ chức liên bang đang triển khai công cụ AI tổng hợp
Tiến hành kiểm tra hệ thống thường xuyên trước và trong suốt quá trình vận hành hệ thống để đảm bảo rằng hệ thống đáp ứng các mục tiêu hiệu suất chính.
Lập kế hoạch kiểm toán độc lập để đánh giá các hệ thống AI tổng hợp dựa trên các khuôn khổ rủi ro và tác động.
Thiên kiến
Vấn đề: nội dung được tạo có thể khuếch đại những thành kiến hoặc những ý tưởng có hại khác chiếm ưu thế trong dữ liệu đào tạo
Các công cụ AI sáng tạo có thể tạo ra nội dung mang tính phân biệt đối xử hoặc không mang tính đại diện hoặc bao gồm những thành kiến hoặc khuôn mẫu (ví dụ: những thành kiến liên quan đến nhiều yếu tố nhận dạng giao nhau và đa dạng như giới tính, chủng tộc và sắc tộc). Footnote12 Footnote13 Footnote14 Nhiều mô hình tổng quát được đào tạo trên lượng lớn dữ liệu từ Internet, thường là nguồn gốc của những thành kiến này. Ví dụ: dữ liệu huấn luyện có khả năng phản ánh những thành kiến lịch sử chiếm ưu thế và có thể không bao gồm các quan điểm ít phổ biến hơn trong dữ liệu hoặc đã xuất hiện kể từ khi mô hình được huấn luyện. Footnote12 Các nguồn khác có thể góp phần tạo ra nội dung sai lệch bao gồm lọc dữ liệu, có thể khuếch đại sai lệch trong tập huấn luyện ban đầu, đóng khung Footnote15 của lời nhắc, Footnote16 và sai lệch mô hình. Việc sử dụng rộng rãi các công nghệ này có thể khuếch đại hoặc củng cố những thành kiến và quan điểm chủ đạo này, đồng thời dẫn đến sự kém đa dạng về ý tưởng, quan điểm và ngôn ngữ, cũng như những tác hại tiềm tàng.
Các phương pháp thực hành tốt nhất cho tất cả người dùng AI sáng tạo trong các tổ chức liên bang
Xem xét nội dung được tạo để đảm bảo rằng nội dung đó phù hợp với các cam kết, giá trị và đạo đức của GC cũng như đáp ứng các nghĩa vụ pháp lý. Điều này bao gồm việc đánh giá các thành kiến hoặc các hiệp hội rập khuôn.
Xây dựng các lời nhắc để tạo nội dung cung cấp quan điểm tổng thể và giảm thiểu thành kiến.
Cố gắng hiểu dữ liệu được sử dụng để đào tạo công cụ, ví dụ: nó đến từ đâu, nó bao gồm những gì và cách nó được chọn và chuẩn bị.
Tìm hiểu về thành kiến, đa dạng, hòa nhập, chống phân biệt chủng tộc cũng như các giá trị và đạo đức để cải thiện khả năng xác định nội dung thiên vị hoặc phân biệt đối xử của bạn.
Thông báo cho người nhận khi nội dung được tạo ra bởi AI.
Các phương pháp thực hành tốt nhất bổ sung dành cho các tổ chức liên bang đang triển khai công cụ AI tổng hợp
Xem xét các phương pháp tiếp cận giảm thiểu và thiên vị tiềm ẩn từ giai đoạn lập kế hoạch và thiết kế, bao gồm bằng cách hoàn thành phân tích dựa trên giới tính (GBA Plus) để hiểu cách triển khai các công cụ AI tổng quát của bạn có thể tác động đến các nhóm dân cư khác nhau như thế nào.
Hãy tham khảo ý kiến của GBA Plus và các chuyên gia về tính đa dạng và hòa nhập khác trong tổ chức của bạn để xác định tác động của việc sử dụng các công cụ AI mang tính tổng thể đối với các nhóm dân số khác nhau và phát triển các biện pháp nhằm giải quyết những tác động đó.
Kiểm tra các sai lệch trong dữ liệu, mô hình và kết quả đầu ra trước khi triển khai hệ thống một cách liên tục.
Chất lượng
Vấn đề: nội dung được tạo có thể không chính xác, không mạch lạc hoặc không đầy đủ
Các công nghệ AI sáng tạo có thể tạo ra nội dung có vẻ được phát triển tốt, đáng tin cậy và hợp lý nhưng trên thực tế nội dung đó không chính xác, vô nghĩa hoặc không nhất quán với dữ liệu nguồn. Footnote18 Footnote19 Nội dung này đôi khi được gọi là “ảo giác”. Ngoài ra, nội dung do công cụ AI tạo ra có thể không cung cấp cái nhìn toàn diện về một vấn đề. Thay vào đó, nó có thể tập trung vào các quan điểm phổ biến trong dữ liệu huấn luyện. Chú thích cuối trang12 Nó cũng có thể đã lỗi thời, tùy thuộc vào khoảng thời gian bao gồm dữ liệu đào tạo và liệu hệ thống có quyền truy cập trực tiếp vào dữ liệu gần đây hay không. Chất lượng của các công cụ và kết quả đầu ra bằng các ngôn ngữ khác nhau cũng cần được xem xét để đảm bảo tuân thủ các yêu cầu về ngôn ngữ chính thức.
Những rủi ro liên quan đến nội dung không chính xác sẽ khác nhau tùy theo ngữ cảnh và cần được đánh giá. Ví dụ: sử dụng các công cụ AI tổng hợp để tìm hiểu về một chủ đề có thể tạo ra thông tin không chính xác hoặc nguồn không tồn tại, Footnote20, nếu được sử dụng trong quá trình ra quyết định, có thể dẫn đến đối xử không công bằng với các cá nhân hoặc chính sách sai lầm. Ngoài ra, việc sử dụng các công cụ AI tổng hợp để liên lạc với công chúng có thể dẫn đến việc chính phủ chia sẻ thông tin không chính xác, góp phần tạo ra thông tin sai lệch và làm xói mòn lòng tin của công chúng.
Các phương pháp thực hành tốt nhất cho tất cả người dùng AI sáng tạo trong các tổ chức liên bang
Nêu rõ rằng bạn đã sử dụng AI tổng quát để phát triển nội dung.
Đừng coi nội dung được tạo là có thẩm quyền. Hãy xem lại nó để biết độ chính xác về mặt thực tế và ngữ cảnh bằng cách, chẳng hạn như kiểm tra nó với thông tin từ các nguồn đáng tin cậy.
Xem lại thông tin cá nhân được tạo bằng AI tổng hợp để đảm bảo thông tin đó chính xác, cập nhật và đầy đủ.
Đánh giá tác động của kết quả đầu ra không chính xác. Không sử dụng AI tổng quát khi cần độ chính xác thực tế hoặc tính toàn vẹn dữ liệu.
Cố gắng hiểu chất lượng và nguồn dữ liệu đào tạo.
Hãy xem xét khả năng xác định nội dung không chính xác của bạn trước khi sử dụng AI tổng hợp. Đừng sử dụng nó nếu bạn không thể xác nhận chất lượng nội dung.
Tìm hiểu cách tạo lời nhắc hiệu quả và cung cấp phản hồi để tinh chỉnh kết quả đầu ra nhằm giảm thiểu việc tạo ra nội dung không chính xác.
Các phương pháp thực hành tốt nhất bổ sung dành cho các tổ chức liên bang đang triển khai công cụ AI tổng hợp
Đảm bảo chất lượng của công cụ và kết quả đầu ra đáp ứng yêu cầu về ngôn ngữ chính thức trước khi triển khai.
Thông báo cho người dùng rằng họ đang tương tác với AI tổng hợp.
Sử dụng hình mờ để giúp người dùng xác định nội dung do AI tạo ra.
Khi nội dung được tạo ra bởi AI, hãy cung cấp liên kết đến các nguồn có thẩm quyền và khuyến khích người dùng xác minh nội dung tại các liên kết được cung cấp.
Cung cấp thông tin về nguồn dữ liệu đào tạo và cách phát triển mô hình.
Quyền tự chủ của công chức
Vấn đề: việc phụ thuộc quá nhiều vào AI có thể can thiệp quá mức vào khả năng phán đoán, kìm hãm sự sáng tạo và làm xói mòn năng lực của lực lượng lao động
Việc phụ thuộc quá nhiều vào các công cụ AI có thể tạo ra có thể cản trở quyền tự chủ và khả năng phán đoán của cá nhân. Ví dụ: một số người dùng có thể có xu hướng chấp nhận một cách thiếu suy xét các đề xuất của hệ thống hoặc các kết quả đầu ra khác, điều này có thể không chính xác. Footnote21 Footnote22 Việc phụ thuộc quá nhiều vào hệ thống có thể là dấu hiệu của thành kiến tự động hóa, xu hướng thiên về kết quả do hệ thống tự động tạo ra, ngay cả khi có thông tin trái ngược từ các nguồn không tự động. Footnote21 Ngoài ra, xu hướng xác nhận có thể góp phần tạo ra sự phụ thuộc quá mức vào Footnote21 vì kết quả đầu ra của hệ thống AI tổng hợp có thể củng cố định kiến của người dùng, đặc biệt là khi các lời nhắc được viết theo cách phản ánh các giả định và niềm tin của người dùng. Footnote23 Việc phụ thuộc quá nhiều vào hệ thống AI có thể dẫn đến suy giảm tư duy phê phán và có thể hạn chế sự đa dạng trong tư duy, từ đó cản trở sự sáng tạo và đổi mới, dẫn đến các phân tích một phần hoặc không đầy đủ. Sự phụ thuộc quá mức vào AI có thể cản trở khả năng của nhân viên trong việc xây dựng và duy trì các kỹ năng cần thiết để hoàn thành các nhiệm vụ được giao cho hệ thống AI tổng hợp. Điều này có thể củng cố sự phụ thuộc của chính phủ vào AI và có khả năng làm xói mòn năng lực của lực lượng lao động.
Các phương pháp thực hành tốt nhất cho tất cả người dùng AI sáng tạo trong các tổ chức liên bang
Xem xét liệu bạn có cần sử dụng AI tổng quát để đáp ứng nhu cầu của người dùng và tổ chức hay không.
Xem xét khả năng và giới hạn của AI tổng hợp khi giao nhiệm vụ và xem xét kết quả đầu ra của hệ thống.
Xây dựng kiến thức về AI của bạn để bạn có thể đánh giá nghiêm túc các công cụ này và kết quả đầu ra của chúng.
Sử dụng các công cụ AI tổng quát làm công cụ hỗ trợ chứ không phải thay thế. Đừng thuê ngoài một kỹ năng mà bạn không hiểu hoặc không sở hữu.
Hình thành quan điểm của riêng bạn trước khi tìm kiếm ý tưởng hoặc đề xuất từ các công cụ AI.
Tìm hiểu cách viết lời nhắc có khả năng tạo ra nội dung mang lại góc nhìn tổng thể và giảm thiểu thành kiến.
Luôn xem xét nội dung do AI tạo ra, ngay cả khi hệ thống có vẻ đáng tin cậy trong việc đưa ra phản hồi chính xác.
Rủi ro pháp lý
Vấn đề: AI tạo ra rủi ro đối với nhân quyền, quyền riêng tư, bảo vệ sở hữu trí tuệ và sự công bằng về thủ tục
Việc chính phủ sử dụng các hệ thống AI tạo ra rủi ro đối với các quyền và nghĩa vụ pháp lý của các tổ chức liên bang và khách hàng của họ. Những rủi ro này phát sinh từ dữ liệu được sử dụng để đào tạo các mô hình AI, cách hệ thống xử lý dữ liệu đầu vào và chất lượng đầu ra của hệ thống.
Việc các nhà cung cấp hoặc tổ chức liên bang sử dụng các tài liệu được bảo vệ bản quyền như bài viết, sách, mật mã, tranh vẽ hoặc âm nhạc để đào tạo mô hình AI có thể vi phạm quyền sở hữu trí tuệ. Việc sử dụng hoặc sao chép kết quả đầu ra do các mô hình này tạo ra cũng có thể vi phạm các quyền đó nếu chúng chứa tài liệu giống hệt hoặc về cơ bản tương tự với tác phẩm được bảo vệ bản quyền. Hơn nữa, quyền sở hữu nội dung được tạo bởi hoặc với sự trợ giúp của AI tổng hợp là không chắc chắn. Quyền riêng tư cũng có thể gặp rủi ro vì dữ liệu được sử dụng để đào tạo các mô hình AI tổng hợp có thể bao gồm thông tin cá nhân được thu thập hoặc sử dụng bất hợp pháp, bao gồm thông tin cá nhân thu được từ các nguồn trực tuyến có thể truy cập công khai.
Rủi ro cũng có thể phát sinh từ tính không rõ ràng của các mô hình AI tổng quát và khả năng tạo ra kết quả đầu ra không chính xác, sai lệch hoặc không nhất quán của chúng. Sự không rõ ràng này gây khó khăn cho việc theo dõi và hiểu cách hệ thống AI tạo ra kết quả đầu ra, điều này có thể làm suy yếu tính công bằng về thủ tục trong trường hợp tổ chức liên bang có nghĩa vụ cung cấp cho khách hàng lý do đưa ra các quyết định hành chính, chẳng hạn như quyết định từ chối lợi ích. Chất lượng đầu ra của AI cũng có thể ảnh hưởng đến quyền lợi hợp pháp của cá nhân. Ví dụ, kết quả đầu ra sai lệch có thể dẫn đến sự phân biệt đối xử trong các dịch vụ, có khả năng vi phạm nhân quyền.
Những rủi ro này vượt ra ngoài các kịch bản ra quyết định. Khi các tổ chức liên bang sử dụng các công cụ AI tổng hợp để giúp công chúng tìm kiếm thông tin (chẳng hạn như trường hợp sử dụng chatbot trên các trang web của bộ) hoặc để tạo ra các thông tin liên lạc công cộng, sẽ có nguy cơ các công cụ này sẽ tạo ra nội dung không phù hợp hoặc thông tin sai lệch khiến có thể góp phần hoặc gây ra tổn hại mà chính phủ có thể phải chịu trách nhiệm.
Các phương pháp thực hành tốt nhất cho tất cả người dùng AI sáng tạo trong các tổ chức liên bang
Tham khảo các dịch vụ pháp lý của tổ chức của bạn về những rủi ro pháp lý khi triển khai các công cụ AI tổng quát hoặc sử dụng chúng trong việc cung cấp dịch vụ. Việc tham vấn có thể bao gồm việc xem xét các điều khoản sử dụng, chính sách bản quyền, chính sách quyền riêng tư và các tài liệu pháp lý khác của nhà cung cấp.
Tuân thủ Chỉ thị về Ra quyết định tự động khi sử dụng AI tổng hợp trong việc ra quyết định hành chính.
Kiểm tra xem đầu ra của hệ thống có giống hệt hoặc về cơ bản giống với tài liệu được bảo vệ bản quyền hay không. Đưa ra ghi nhận hợp lý nếu thích hợp hoặc xóa tài liệu này để giảm thiểu nguy cơ vi phạm quyền sở hữu trí tuệ.
Hãy tham khảo ý kiến
của các quan chức được chỉ định về việc cấp phép và quản lý bản quyền của Crown nếu bạn dự định đưa kết quả đầu ra vào các phương tiện truyền thông đại chúng, tuân theo Quy trình Xuất bản.
Đánh giá chất lượng đầu ra về những sai sót thực tế, sai lệch hoặc những ý tưởng có hại có thể xung đột với các giá trị GC.
Luôn cập nhật về các phát triển chính sách và pháp lý liên quan đến quy định về AI.
Các phương pháp thực hành tốt nhất bổ sung dành cho các tổ chức liên bang đang triển khai công cụ AI tổng hợp
Xác minh tính hợp pháp của phương pháp được sử dụng để lấy dữ liệu nhằm đào tạo các mô hình AI và đảm bảo bạn có quyền sử dụng dữ liệu cho mục đích này. Nếu khả thi, hãy huấn luyện mô hình của bạn bằng cách sử dụng dữ liệu nguồn mở không có hạn chế đối với việc sử dụng đó.
Hãy minh bạch về việc bạn sử dụng AI tổng hợp, bao gồm cả việc thông báo cho người dùng nếu họ đang tương tác với một hệ thống chứ không phải với con người. Khi thích hợp, hãy bao gồm tuyên bố từ chối trách nhiệm để giảm thiểu rủi ro trách nhiệm pháp lý.
Sử dụng hình mờ để giúp người dùng xác định nội dung được tạo.
Phân biệt con người với máy móc
Vấn đề: mọi người có thể không biết rằng họ đang tương tác với hệ thống AI hoặc họ có thể cho rằng AI đang được sử dụng một cách sai lầm
Các tác nhân đàm thoại hoặc chatbot sử dụng AI tổng hợp có thể tạo ra các phản hồi giống con người đến mức khó có thể phân biệt chúng với phản hồi của người thật. Footnote24 Do đó, khách hàng có thể bị đánh lừa khi tin rằng họ đang tương tác với con người. Tương tự, khách hàng có thể cho rằng email họ nhận được được viết bởi một người trong khi nó thực sự được tạo ra bởi một công cụ AI. Mặt khác, khách hàng có thể nghĩ rằng họ đang tương tác với một công cụ AI trong khi thực tế họ đang giao dịch với người thật. Sự minh bạch về việc khách hàng đang tương tác với một người hay một chatbot là điều cần thiết để đảm bảo rằng khách hàng không bị đánh lừa và duy trì niềm tin vào chính phủ.
Các phương pháp thực hành tốt nhất cho tất cả người dùng AI sáng tạo trong các tổ chức liên bang
Truyền đạt rõ ràng thời điểm và cách thức GC sử dụng AI trong tương tác với công chúng.
Thông báo cho người dùng khi tin nhắn gửi đến họ được tạo bởi AI.
Các phương pháp thực hành tốt nhất bổ sung dành cho các tổ chức liên bang đang triển khai công cụ AI tổng hợp
Xem xét việc cung cấp các phương tiện liên lạc không tự động với GC.
Sử dụng hình mờ để người dùng có thể xác định nội dung do AI tạo ra.
Xuất bản thông tin về hệ thống, chẳng hạn như mô tả bằng ngôn ngữ đơn giản về cách thức hoạt động của hệ thống, lý do sử dụng hệ thống và các bước đảm bảo chất lượng được thực hiện.
Tác động môi trường
Vấn đề: việc phát triển và sử dụng hệ thống AI có thể tạo ra chi phí môi trường đáng kể
Việc phát triển và sử dụng các hệ thống trí tuệ nhân tạo có thể là nguồn phát thải khí nhà kính đáng kể. Lượng khí thải này không chỉ đến từ hoạt động điện toán được sử dụng để đào tạo và vận hành các mô hình tổng hợp mà còn từ quá trình sản xuất và vận chuyển các máy chủ hỗ trợ các chương trình AI. Chú thích25 Mặc dù AI có tiềm năng giúp chống lại biến đổi khí hậu nhưng việc sử dụng nó phải cân bằng với nhu cầu hành động nhanh chóng và quyết liệt để giảm phát thải khí nhà kính toàn cầu và ngăn chặn thiệt hại không thể khắc phục đối với môi trường.
Các phương pháp thực hành tốt nhất cho tất cả người dùng AI sáng tạo trong các tổ chức liên bang
Sử dụng các công cụ AI tổng hợp được lưu trữ trong các trung tâm dữ liệu không phát thải.
Chỉ sử dụng các công cụ AI tổng quát khi phù hợp với mục tiêu chương trình và kết quả mong muốn.
Các phương pháp thực hành tốt nhất bổ sung dành cho các tổ chức liên bang đang triển khai công cụ AI tổng hợp
Xem xét liệu nhà cung cấp AI của bạn có đặt ra bất kỳ mục tiêu giảm khí nhà kính nào không. Chú thích27
Hoàn thành đánh giá tác động môi trường như một phần của đề xuất phát triển hoặc mua sắm các công cụ AI tổng hợp. Đảm bảo mọi quyết định mua sắm những công cụ này đều được đưa ra tuân thủ Chính sách Mua sắm Xanh.
Sử dụng hướng dẫn này và hỗ trợ bổ sung có sẵn
Khi các bộ phận tiếp tục phát triển hướng dẫn của họ về việc sử dụng AI tổng hợp, tài liệu này sẽ được sử dụng làm hướng dẫn tổng thể để xây dựng. Để biết thêm thông tin, bao gồm hướng dẫn về cách sử dụng cụ thể của AI tổng hợp, hãy liên hệ với nhóm AI và Dữ liệu có trách nhiệm của TBS (ai-ia@tbs-sct.gc.ca). Các tài nguyên bổ sung tồn tại trong chính phủ liên bang mà các tổ chức có thể truy cập bằng cách liên hệ với Cơ quan An ninh Truyền thông (bao gồm hướng dẫn của Trung tâm An ninh Mạng Canada về AI tổng hợp) và Cơ quan Thống kê Canada. Cộng đồng thực hành và hướng dẫn TBS sẽ tiếp tục phát triển trong những năm tới.
Tham khảo bài viết gốc tại đây:
 


Đăng nhập một lần thảo luận tẹt ga
Top