Thoại Viết Hoàng
Writer
Một nghiên cứu từ MIT Sloan Management Review và BCG cảnh báo rằng tốc độ phát triển nhanh chóng của AI đang tạo ra 'AI bóng tối' - khiến việc sử dụng AI một cách có trách nhiệm trở nên khó khăn hơn.
Tuy nhiên, sự phát triển nhanh chóng của công nghệ mới nổi này cũng đang làm tăng mức độ phức tạp của các chòm sao AI vượt xa khả năng chịu trách nhiệm và giải trình trong các hệ thống AI.
Đó là kết luận từ một cuộc khảo sát gần đây với 1.240 giám đốc điều hành do MIT Sloan Management Review và Boston Consulting Group (MIT SMR và BCG) công bố, đã xem xét tiến trình của các sáng kiến
AI có trách nhiệm và việc áp dụng cả các công cụ AI được xây dựng nội bộ và có nguồn gốc bên ngoài - cái mà các nhà nghiên cứu gọi là "AI bóng tối".
Các tác giả của nghiên cứu, Elizabeth Renieris (Viện đạo đức trong AI của Oxford), David Kiron (MIT SMR) và Steven Mills (BCG) cho biết: “Lời hứa về AI đi kèm với hậu quả: rủi ro cho các tổ chức không được chuẩn bị cho nhiều trường hợp sử dụng."
Renieris và các đồng tác giả của cô nhận xét: Nhiều công ty "đã mất cảnh giác trước sự lan rộng của việc sử dụng AI trong bóng tối trong toàn doanh nghiệp". Hơn nữa, tốc độ phát triển AI nhanh chóng "đang khiến việc sử dụng AI một cách có trách nhiệm trở nên khó khăn hơn và gây áp lực buộc các chương trình AI có trách nhiệm phải theo kịp."
Họ cảnh báo những rủi ro đến từ AI trong bóng tối ngày càng gia tăng cũng đang gia tăng. Ví dụ: sự phụ thuộc ngày càng tăng của các công ty vào nguồn cung cấp ngày càng tăng các công cụ AI của bên thứ ba, cùng với việc áp dụng nhanh chóng AI tổng quát - các thuật toán (chẳng hạn như ChatGPT, Dall-E 2 và Midjourney) sử dụng dữ liệu đào tạo để tạo ra dữ liệu thực tế hoặc có vẻ như văn bản, hình ảnh hoặc âm thanh thực tế - khiến họ gặp rủi ro thương mại, pháp lý và uy tín mới khó theo dõi.
Các nhà nghiên cứu đề cập đến tầm quan trọng của AI có trách nhiệm, mà họ định nghĩa là "một khuôn khổ với các nguyên tắc, chính sách, công cụ và quy trình để đảm bảo rằng các hệ thống AI được phát triển và vận hành vì lợi ích của cá nhân và xã hội trong khi vẫn đạt được tác động chuyển đổi kinh doanh ."
Các nhà nghiên cứu cảnh báo, một khó khăn khác bắt nguồn từ thực tế là một số công ty "dường như đang thu hẹp nguồn lực nội bộ dành cho AI có trách nhiệm như một phần của xu hướng rộng lớn hơn trong việc sa thải nhân viên trong ngành", các nhà nghiên cứu cảnh báo. "Có thể nói, việc cắt giảm các khoản đầu tư vào AI có trách nhiệm đang diễn ra khi chúng cần thiết nhất."
Ví dụ: việc nhân viên sử dụng rộng rãi chatbot ChatGPT đã khiến nhiều tổ chức bất ngờ và có thể có ý nghĩa bảo mật. Các nhà nghiên cứu cho biết các khung AI có trách nhiệm đã không được viết để "đối phó với số lượng rủi ro đột ngột, không thể tưởng tượng được mà các công cụ AI tổng quát đang tạo ra".
Nghiên cứu cho thấy 78% tổ chức báo cáo việc truy cập, mua, cấp phép hoặc sử dụng các công cụ AI của bên thứ ba, bao gồm API thương mại, mô hình được đào tạo trước và dữ liệu. Hơn một nửa (53%) chỉ dựa vào các công cụ AI của bên thứ ba và không có công nghệ AI nào được thiết kế hoặc phát triển nội bộ.
Các chương trình AI có trách nhiệm "nên bao gồm cả các công cụ AI được xây dựng nội bộ và bên thứ ba", Renieris và các đồng tác giả của cô thúc giục. "Các nguyên tắc đạo đức giống nhau phải được áp dụng, bất kể hệ thống AI đến từ đâu. Cuối cùng, nếu có điều gì sai sót xảy ra, thì việc người đó được chế tạo hay mua công cụ đó cũng không thành vấn đề."
Các đồng tác giả cảnh báo rằng mặc dù "không có viên đạn bạc nào để giảm thiểu rủi ro AI của bên thứ ba hoặc bất kỳ loại rủi ro AI nào cho vấn đề đó", nhưng họ thúc giục một cách tiếp cận đa hướng để đảm bảo AI có trách nhiệm trong môi trường rộng mở ngày nay.
Tham khảo bài gốc tại đây
Các nền tảng và công cụ trí tuệ nhân tạo (AI) mới đang xuất hiện hàng ngày để hỗ trợ các nhà phát triển, nhà khoa học dữ liệu và nhà phân tích kinh doanh.
Đó là kết luận từ một cuộc khảo sát gần đây với 1.240 giám đốc điều hành do MIT Sloan Management Review và Boston Consulting Group (MIT SMR và BCG) công bố, đã xem xét tiến trình của các sáng kiến
AI có trách nhiệm và việc áp dụng cả các công cụ AI được xây dựng nội bộ và có nguồn gốc bên ngoài - cái mà các nhà nghiên cứu gọi là "AI bóng tối".
Các tác giả của nghiên cứu, Elizabeth Renieris (Viện đạo đức trong AI của Oxford), David Kiron (MIT SMR) và Steven Mills (BCG) cho biết: “Lời hứa về AI đi kèm với hậu quả: rủi ro cho các tổ chức không được chuẩn bị cho nhiều trường hợp sử dụng."
Renieris và các đồng tác giả của cô nhận xét: Nhiều công ty "đã mất cảnh giác trước sự lan rộng của việc sử dụng AI trong bóng tối trong toàn doanh nghiệp". Hơn nữa, tốc độ phát triển AI nhanh chóng "đang khiến việc sử dụng AI một cách có trách nhiệm trở nên khó khăn hơn và gây áp lực buộc các chương trình AI có trách nhiệm phải theo kịp."
Họ cảnh báo những rủi ro đến từ AI trong bóng tối ngày càng gia tăng cũng đang gia tăng. Ví dụ: sự phụ thuộc ngày càng tăng của các công ty vào nguồn cung cấp ngày càng tăng các công cụ AI của bên thứ ba, cùng với việc áp dụng nhanh chóng AI tổng quát - các thuật toán (chẳng hạn như ChatGPT, Dall-E 2 và Midjourney) sử dụng dữ liệu đào tạo để tạo ra dữ liệu thực tế hoặc có vẻ như văn bản, hình ảnh hoặc âm thanh thực tế - khiến họ gặp rủi ro thương mại, pháp lý và uy tín mới khó theo dõi.
Các nhà nghiên cứu đề cập đến tầm quan trọng của AI có trách nhiệm, mà họ định nghĩa là "một khuôn khổ với các nguyên tắc, chính sách, công cụ và quy trình để đảm bảo rằng các hệ thống AI được phát triển và vận hành vì lợi ích của cá nhân và xã hội trong khi vẫn đạt được tác động chuyển đổi kinh doanh ."
Các nhà nghiên cứu cảnh báo, một khó khăn khác bắt nguồn từ thực tế là một số công ty "dường như đang thu hẹp nguồn lực nội bộ dành cho AI có trách nhiệm như một phần của xu hướng rộng lớn hơn trong việc sa thải nhân viên trong ngành", các nhà nghiên cứu cảnh báo. "Có thể nói, việc cắt giảm các khoản đầu tư vào AI có trách nhiệm đang diễn ra khi chúng cần thiết nhất."
Ví dụ: việc nhân viên sử dụng rộng rãi chatbot ChatGPT đã khiến nhiều tổ chức bất ngờ và có thể có ý nghĩa bảo mật. Các nhà nghiên cứu cho biết các khung AI có trách nhiệm đã không được viết để "đối phó với số lượng rủi ro đột ngột, không thể tưởng tượng được mà các công cụ AI tổng quát đang tạo ra".
Nghiên cứu cho thấy 78% tổ chức báo cáo việc truy cập, mua, cấp phép hoặc sử dụng các công cụ AI của bên thứ ba, bao gồm API thương mại, mô hình được đào tạo trước và dữ liệu. Hơn một nửa (53%) chỉ dựa vào các công cụ AI của bên thứ ba và không có công nghệ AI nào được thiết kế hoặc phát triển nội bộ.
Các chương trình AI có trách nhiệm "nên bao gồm cả các công cụ AI được xây dựng nội bộ và bên thứ ba", Renieris và các đồng tác giả của cô thúc giục. "Các nguyên tắc đạo đức giống nhau phải được áp dụng, bất kể hệ thống AI đến từ đâu. Cuối cùng, nếu có điều gì sai sót xảy ra, thì việc người đó được chế tạo hay mua công cụ đó cũng không thành vấn đề."
Các đồng tác giả cảnh báo rằng mặc dù "không có viên đạn bạc nào để giảm thiểu rủi ro AI của bên thứ ba hoặc bất kỳ loại rủi ro AI nào cho vấn đề đó", nhưng họ thúc giục một cách tiếp cận đa hướng để đảm bảo AI có trách nhiệm trong môi trường rộng mở ngày nay.
Tham khảo bài gốc tại đây