Thoại Viết Hoàng
Writer
Trong vài tuần qua, đã có một số diễn biến quan trọng trong cuộc thảo luận toàn cầu về rủi ro và quy định AI.
Nhưng điều khiến một số người ngạc nhiên là sự đồng thuận giữa các chính phủ, nhà nghiên cứu và nhà phát triển AI về nhu cầu điều tiết này. Trong lời khai trước Quốc hội, Sam Altman, Giám đốc điều hành của OpenAI, đã đề xuất thành lập một cơ quan chính phủ mới cấp giấy phép phát triển các mô hình AI quy mô lớn. Anh ấy đã đưa ra một số gợi ý về cách một cơ quan như vậy có thể điều chỉnh ngành, bao gồm “sự kết hợp giữa các yêu cầu cấp phép và thử nghiệm,” đồng thời cho biết các công ty như OpenAI nên được kiểm toán độc lập.
Tuy nhiên, trong khi ngày càng có nhiều sự nhất trí về các rủi ro, bao gồm cả những tác động tiềm ẩn đối với công việc và quyền riêng tư của mọi người, thì vẫn có rất ít sự đồng thuận về nội dung của các quy định đó hoặc nội dung kiểm toán tiềm năng nên tập trung vào. Tại Hội nghị thượng đỉnh AI Sáng tạo đầu tiên do Diễn đàn Kinh tế Thế giới tổ chức, nơi các nhà lãnh đạo AI từ các doanh nghiệp, chính phủ và tổ chức nghiên cứu tập hợp lại để thúc đẩy sự liên kết về cách điều hướng những cân nhắc về đạo đức và quy định mới này, hai chủ đề chính đã xuất hiện:
Sự cần thiết phải kiểm toán AI có trách nhiệm và có trách nhiệm
Trước tiên, chúng tôi cần cập nhật các yêu cầu đối với các doanh nghiệp đang phát triển và triển khai các mô hình AI. Điều này đặc biệt quan trọng khi chúng ta đặt câu hỏi “đổi mới có trách nhiệm” thực sự có nghĩa là gì. Vương quốc Anh đang dẫn đầu cuộc thảo luận này, với việc chính phủ của họ gần đây đã đưa ra hướng dẫn về AI thông qua 5 nguyên tắc cốt lõi, bao gồm an toàn, minh bạch và công bằng. Cũng có một nghiên cứu gần đây từ Oxford nhấn mạnh rằng “Các LLM như ChatGPT mang lại nhu cầu cấp thiết về việc cập nhật khái niệm về trách nhiệm của chúng tôi”.
Động lực cốt lõi đằng sau việc thúc đẩy các trách nhiệm mới này là mức độ khó khăn ngày càng tăng trong việc hiểu và kiểm tra thế hệ mô hình AI mới. Để xem xét sự phát triển này, chúng ta có thể xem xét AI “truyền thống” so với AI LLM hoặc AI mô hình ngôn ngữ lớn, trong ví dụ về việc giới thiệu ứng viên cho một công việc.
Nếu AI truyền thống được đào tạo dựa trên dữ liệu xác định nhân viên thuộc một chủng tộc hoặc giới tính nhất định trong các công việc cấp cao hơn, thì nó có thể tạo ra sự thiên vị bằng cách giới thiệu những người thuộc cùng chủng tộc hoặc giới tính cho các công việc. May mắn thay, đây là thứ có thể bị phát hiện hoặc kiểm tra bằng cách kiểm tra dữ liệu được sử dụng để đào tạo các mô hình AI này, cũng như các đề xuất đầu ra.
Với AI mới do LLM hỗ trợ, loại kiểm tra thiên vị này ngày càng trở nên khó khăn hơn, nếu không muốn nói là không thể, để kiểm tra độ thiên vị và chất lượng. Chúng tôi không chỉ không biết LLM “đóng” đã được đào tạo dựa trên dữ liệu nào, mà một đề xuất trò chuyện có thể đưa ra những thành kiến. Chính ranh giới này của những gì được coi là khuyến nghị hoặc quyết định là chìa khóa cho các quy định mới về AI trong nhân sự. Ví dụ: luật AEDT mới của NYC đang thúc đẩy kiểm toán thiên vị đối với các công nghệ liên quan cụ thể đến các quyết định tuyển dụng, chẳng hạn như những công nghệ có thể tự động quyết định ai được tuyển dụng.
Tuy nhiên, bối cảnh pháp lý đang nhanh chóng phát triển vượt ra ngoài cách AI đưa ra quyết định và cách thức AI được xây dựng và sử dụng.
Ví dụ: nếu bạn yêu cầu ChatGPT tóm tắt bài phát biểu của một ứng cử viên tổng thống, thì ai sẽ đánh giá liệu đó có phải là một bản tóm tắt thiên vị hay không?
Do đó, điều quan trọng hơn bao giờ hết đối với các sản phẩm bao gồm các đề xuất AI là xem xét các trách nhiệm mới, chẳng hạn như khả năng truy xuất nguồn gốc của các đề xuất, để đảm bảo rằng trên thực tế, các mô hình được sử dụng trong các đề xuất có thể được kiểm tra thiên vị thay vì chỉ sử dụng LLM.
Điều này đưa chúng ta đến chủ đề chính thứ hai: chính phủ cần xác định các tiêu chuẩn rõ ràng và rộng hơn về cách thức xây dựng công nghệ AI và cách các tiêu chuẩn này được làm rõ cho người tiêu dùng và nhân viên.
Tại phiên điều trần OpenAI gần đây, Christina Montgomery, giám đốc về quyền riêng tư và tin cậy của IBM, đã nhấn mạnh rằng chúng tôi cần các tiêu chuẩn để đảm bảo người tiêu dùng nhận thức được mỗi khi họ tương tác với một chatbot. Loại minh bạch này về cách AI được phát triển và nguy cơ các tác nhân xấu sử dụng các mô hình nguồn mở là chìa khóa cho những cân nhắc gần đây của Đạo luật AI của EU về việc cấm các API LLM và các mô hình nguồn mở.
Câu hỏi làm thế nào để kiểm soát sự phổ biến của các mô hình và công nghệ mới sẽ cần được tranh luận thêm trước khi sự đánh đổi giữa rủi ro và lợi ích trở nên rõ ràng hơn. Nhưng điều ngày càng trở nên rõ ràng là khi tác động của AI tăng lên, thì mức độ cấp bách đối với các tiêu chuẩn và quy định, cũng như nhận thức về cả rủi ro và cơ hội.
Ý nghĩa của quy định AI đối với đội ngũ nhân sự và lãnh đạo doanh nghiệp
Tác động của AI có lẽ đang được các nhóm nhân sự cảm nhận nhanh nhất, những người được yêu cầu vừa phải vật lộn với những áp lực mới để cung cấp cho nhân viên cơ hội nâng cao kỹ năng, vừa cung cấp cho nhóm điều hành của họ những dự đoán đã được điều chỉnh và kế hoạch lực lượng lao động về những kỹ năng mới sẽ cần thiết để điều chỉnh chiến lược kinh doanh của họ.
Tại hai hội nghị thượng đỉnh gần đây của WEF về AI Sáng tạo và Tương lai của Công việc, tôi đã nói chuyện với các nhà lãnh đạo về AI và Nhân sự, cũng như các nhà hoạch định chính sách và học giả, về một sự đồng thuận mới nổi: rằng tất cả các doanh nghiệp cần thúc đẩy nhận thức và áp dụng AI có trách nhiệm. WEF vừa công bố “Báo cáo tương lai việc làm”, trong đó nhấn mạnh rằng trong 5 năm tới, 23% việc làm dự kiến
sẽ thay đổi, với 69 triệu việc làm được tạo ra nhưng 83 triệu việc làm bị loại bỏ. Điều đó có nghĩa là ít nhất 14 triệu việc làm của mọi người được coi là có nguy cơ.
Báo cáo cũng nhấn mạnh rằng không chỉ 6/10 người lao động cần thay đổi bộ kỹ năng để thực hiện công việc của họ — họ sẽ cần nâng cao kỹ năng và đào tạo lại kỹ năng — trước năm 2027, mà chỉ một nửa số nhân viên được cho là có cơ hội đào tạo đầy đủ hiện nay.
Vậy các nhóm nên làm thế nào để giữ nhân viên tham gia vào quá trình chuyển đổi được tăng tốc bởi AI? Bằng cách thúc đẩy quá trình chuyển đổi nội bộ tập trung vào nhân viên của họ và xem xét cẩn thận cách tạo ra một nhóm người và trải nghiệm công nghệ tuân thủ và kết nối, trao quyền cho nhân viên với sự minh bạch tốt hơn trong sự nghiệp và các công cụ để phát triển bản thân.
Làn sóng quy định mới đang giúp làm sáng tỏ cách xem xét sự thiên vị trong các quyết định liên quan đến con người, chẳng hạn như về nhân tài — tuy nhiên, khi những công nghệ này được mọi người cả trong và ngoài công việc áp dụng, trách nhiệm lớn hơn bao giờ hết giúp các nhà lãnh đạo doanh nghiệp và nhân sự hiểu được cả công nghệ và bối cảnh pháp lý, đồng thời dựa vào việc thúc đẩy chiến lược AI có trách nhiệm trong các nhóm và doanh nghiệp của họ.
Tham khảo bài viết gốc tại đây:
Chủ đề đang nổi lên, cả từ các phiên điều trần của Hoa Kỳ về OpenAI với Sam Altman và thông báo của EU về Đạo luật AI sửa đổi, là lời kêu gọi cần có nhiều quy định hơn.
Tuy nhiên, trong khi ngày càng có nhiều sự nhất trí về các rủi ro, bao gồm cả những tác động tiềm ẩn đối với công việc và quyền riêng tư của mọi người, thì vẫn có rất ít sự đồng thuận về nội dung của các quy định đó hoặc nội dung kiểm toán tiềm năng nên tập trung vào. Tại Hội nghị thượng đỉnh AI Sáng tạo đầu tiên do Diễn đàn Kinh tế Thế giới tổ chức, nơi các nhà lãnh đạo AI từ các doanh nghiệp, chính phủ và tổ chức nghiên cứu tập hợp lại để thúc đẩy sự liên kết về cách điều hướng những cân nhắc về đạo đức và quy định mới này, hai chủ đề chính đã xuất hiện:
Sự cần thiết phải kiểm toán AI có trách nhiệm và có trách nhiệm
Trước tiên, chúng tôi cần cập nhật các yêu cầu đối với các doanh nghiệp đang phát triển và triển khai các mô hình AI. Điều này đặc biệt quan trọng khi chúng ta đặt câu hỏi “đổi mới có trách nhiệm” thực sự có nghĩa là gì. Vương quốc Anh đang dẫn đầu cuộc thảo luận này, với việc chính phủ của họ gần đây đã đưa ra hướng dẫn về AI thông qua 5 nguyên tắc cốt lõi, bao gồm an toàn, minh bạch và công bằng. Cũng có một nghiên cứu gần đây từ Oxford nhấn mạnh rằng “Các LLM như ChatGPT mang lại nhu cầu cấp thiết về việc cập nhật khái niệm về trách nhiệm của chúng tôi”.
Động lực cốt lõi đằng sau việc thúc đẩy các trách nhiệm mới này là mức độ khó khăn ngày càng tăng trong việc hiểu và kiểm tra thế hệ mô hình AI mới. Để xem xét sự phát triển này, chúng ta có thể xem xét AI “truyền thống” so với AI LLM hoặc AI mô hình ngôn ngữ lớn, trong ví dụ về việc giới thiệu ứng viên cho một công việc.
Nếu AI truyền thống được đào tạo dựa trên dữ liệu xác định nhân viên thuộc một chủng tộc hoặc giới tính nhất định trong các công việc cấp cao hơn, thì nó có thể tạo ra sự thiên vị bằng cách giới thiệu những người thuộc cùng chủng tộc hoặc giới tính cho các công việc. May mắn thay, đây là thứ có thể bị phát hiện hoặc kiểm tra bằng cách kiểm tra dữ liệu được sử dụng để đào tạo các mô hình AI này, cũng như các đề xuất đầu ra.
Với AI mới do LLM hỗ trợ, loại kiểm tra thiên vị này ngày càng trở nên khó khăn hơn, nếu không muốn nói là không thể, để kiểm tra độ thiên vị và chất lượng. Chúng tôi không chỉ không biết LLM “đóng” đã được đào tạo dựa trên dữ liệu nào, mà một đề xuất trò chuyện có thể đưa ra những thành kiến. Chính ranh giới này của những gì được coi là khuyến nghị hoặc quyết định là chìa khóa cho các quy định mới về AI trong nhân sự. Ví dụ: luật AEDT mới của NYC đang thúc đẩy kiểm toán thiên vị đối với các công nghệ liên quan cụ thể đến các quyết định tuyển dụng, chẳng hạn như những công nghệ có thể tự động quyết định ai được tuyển dụng.
Tuy nhiên, bối cảnh pháp lý đang nhanh chóng phát triển vượt ra ngoài cách AI đưa ra quyết định và cách thức AI được xây dựng và sử dụng.
Ví dụ: nếu bạn yêu cầu ChatGPT tóm tắt bài phát biểu của một ứng cử viên tổng thống, thì ai sẽ đánh giá liệu đó có phải là một bản tóm tắt thiên vị hay không?
Do đó, điều quan trọng hơn bao giờ hết đối với các sản phẩm bao gồm các đề xuất AI là xem xét các trách nhiệm mới, chẳng hạn như khả năng truy xuất nguồn gốc của các đề xuất, để đảm bảo rằng trên thực tế, các mô hình được sử dụng trong các đề xuất có thể được kiểm tra thiên vị thay vì chỉ sử dụng LLM.
Điều này đưa chúng ta đến chủ đề chính thứ hai: chính phủ cần xác định các tiêu chuẩn rõ ràng và rộng hơn về cách thức xây dựng công nghệ AI và cách các tiêu chuẩn này được làm rõ cho người tiêu dùng và nhân viên.
Tại phiên điều trần OpenAI gần đây, Christina Montgomery, giám đốc về quyền riêng tư và tin cậy của IBM, đã nhấn mạnh rằng chúng tôi cần các tiêu chuẩn để đảm bảo người tiêu dùng nhận thức được mỗi khi họ tương tác với một chatbot. Loại minh bạch này về cách AI được phát triển và nguy cơ các tác nhân xấu sử dụng các mô hình nguồn mở là chìa khóa cho những cân nhắc gần đây của Đạo luật AI của EU về việc cấm các API LLM và các mô hình nguồn mở.
Câu hỏi làm thế nào để kiểm soát sự phổ biến của các mô hình và công nghệ mới sẽ cần được tranh luận thêm trước khi sự đánh đổi giữa rủi ro và lợi ích trở nên rõ ràng hơn. Nhưng điều ngày càng trở nên rõ ràng là khi tác động của AI tăng lên, thì mức độ cấp bách đối với các tiêu chuẩn và quy định, cũng như nhận thức về cả rủi ro và cơ hội.
Ý nghĩa của quy định AI đối với đội ngũ nhân sự và lãnh đạo doanh nghiệp
Tác động của AI có lẽ đang được các nhóm nhân sự cảm nhận nhanh nhất, những người được yêu cầu vừa phải vật lộn với những áp lực mới để cung cấp cho nhân viên cơ hội nâng cao kỹ năng, vừa cung cấp cho nhóm điều hành của họ những dự đoán đã được điều chỉnh và kế hoạch lực lượng lao động về những kỹ năng mới sẽ cần thiết để điều chỉnh chiến lược kinh doanh của họ.
Tại hai hội nghị thượng đỉnh gần đây của WEF về AI Sáng tạo và Tương lai của Công việc, tôi đã nói chuyện với các nhà lãnh đạo về AI và Nhân sự, cũng như các nhà hoạch định chính sách và học giả, về một sự đồng thuận mới nổi: rằng tất cả các doanh nghiệp cần thúc đẩy nhận thức và áp dụng AI có trách nhiệm. WEF vừa công bố “Báo cáo tương lai việc làm”, trong đó nhấn mạnh rằng trong 5 năm tới, 23% việc làm dự kiến
sẽ thay đổi, với 69 triệu việc làm được tạo ra nhưng 83 triệu việc làm bị loại bỏ. Điều đó có nghĩa là ít nhất 14 triệu việc làm của mọi người được coi là có nguy cơ.
Báo cáo cũng nhấn mạnh rằng không chỉ 6/10 người lao động cần thay đổi bộ kỹ năng để thực hiện công việc của họ — họ sẽ cần nâng cao kỹ năng và đào tạo lại kỹ năng — trước năm 2027, mà chỉ một nửa số nhân viên được cho là có cơ hội đào tạo đầy đủ hiện nay.
Vậy các nhóm nên làm thế nào để giữ nhân viên tham gia vào quá trình chuyển đổi được tăng tốc bởi AI? Bằng cách thúc đẩy quá trình chuyển đổi nội bộ tập trung vào nhân viên của họ và xem xét cẩn thận cách tạo ra một nhóm người và trải nghiệm công nghệ tuân thủ và kết nối, trao quyền cho nhân viên với sự minh bạch tốt hơn trong sự nghiệp và các công cụ để phát triển bản thân.
Làn sóng quy định mới đang giúp làm sáng tỏ cách xem xét sự thiên vị trong các quyết định liên quan đến con người, chẳng hạn như về nhân tài — tuy nhiên, khi những công nghệ này được mọi người cả trong và ngoài công việc áp dụng, trách nhiệm lớn hơn bao giờ hết giúp các nhà lãnh đạo doanh nghiệp và nhân sự hiểu được cả công nghệ và bối cảnh pháp lý, đồng thời dựa vào việc thúc đẩy chiến lược AI có trách nhiệm trong các nhóm và doanh nghiệp của họ.
Tham khảo bài viết gốc tại đây: