Mọi người đều muốn AI có trách nhiệm, nhưng rất ít người làm bất cứ điều gì về nó

73% lãnh đạo doanh nghiệp cho rằng các hướng dẫn về AI là không thể thiếu. Tuy nhiên, chỉ có 6% thiết lập những hướng dẫn như vậy trong công ty của họ.
Mọi người đều muốn AI có trách nhiệm, nhưng rất ít người làm bất cứ điều gì về nó
Một cuộc khảo sát gần đây cho thấy, trong khi gần 9 trong 10 lãnh đạo doanh nghiệp đồng ý rằng điều quan trọng là phải có hướng dẫn rõ ràng về đạo đức trí tuệ nhân tạo (AI) và trách nhiệm doanh nghiệp, thì chỉ một số ít thừa nhận họ có những hướng dẫn như vậy.
Những phát hiện như vậy cho thấy có sự nhầm lẫn về những phương pháp tiếp cận cần được thực hiện để quản lý việc áp dụng AI và các chuyên gia công nghệ cần phải bước tiếp và nắm quyền lãnh đạo để phát triển an toàn và có đạo đức cho các sáng kiến dựa trên dữ liệu của họ.
Kết quả là từ một cuộc khảo sát dựa trên quan điểm của 500 lãnh đạo doanh nghiệp do công ty công nghệ Conversica công bố, trong đó cho biết: "Một thông điệp vang dội được đưa ra từ cuộc khảo sát: đa số người được hỏi nhận ra tầm quan trọng tối thượng của các hướng dẫn được xác định rõ ràng về việc sử dụng có trách nhiệm AI trong các công ty, đặc biệt là những công ty đã áp dụng công nghệ này.”
Gần 3/4 (73%) số người được hỏi cho biết các hướng dẫn về AI là không thể thiếu. Tuy nhiên, chỉ 6% đã thiết lập các hướng dẫn đạo đức rõ ràng cho việc sử dụng AI và 36% cho biết họ có thể đưa ra các hướng dẫn trong 12 tháng tới.
Ngay cả trong số các công ty có AI trong sản xuất, 1/5 lãnh đạo tại các công ty hiện đang sử dụng AI thừa nhận có kiến thức hạn chế hoặc không có kiến thức về các chính sách liên quan đến AI của tổ chức họ. Hơn một phần ba (36%) cho biết họ chỉ “hơi quen” với những lo ngại liên quan đến chính sách.
Các tác giả của báo cáo cho biết, các nguyên tắc và chính sách để giải quyết vấn đề AI có trách nhiệm phải kết hợp quản trị, dữ liệu đào tạo không thiên vị, phát hiện sai lệch, giảm thiểu sai lệch, tính minh bạch, độ chính xác và bao gồm sự giám sát của con người.
Khoảng 2/3 (65%) giám đốc điều hành được khảo sát cho biết họ đã có hoặc có kế hoạch triển khai các dịch vụ hỗ trợ AI trong 12 tháng tới. Các trường hợp sử dụng AI hàng đầu bao gồm hỗ trợ các chức năng tương tác, chẳng hạn như dịch vụ khách hàng và tiếp thị (được trích dẫn bởi 39%) và tạo ra thông tin phân tích chuyên sâu (35%).
Cuộc khảo sát cho thấy mối lo ngại hàng đầu về kết quả đầu ra của AI là tính chính xác của các mô hình dữ liệu hiện tại, thông tin sai lệch và thiếu minh bạch. Hơn ba phần tư (77%) giám đốc điều hành bày tỏ lo ngại về việc AI tạo ra thông tin sai lệch.
Các nhà lãnh đạo doanh nghiệp cho biết, các nhà cung cấp AI không cung cấp đủ thông tin để giúp xây dựng các hướng dẫn - đặc biệt là khi nói đến bảo mật và minh bạch dữ liệu cũng như tạo ra các chính sách đạo đức mạnh mẽ.
Khoảng 2/3 (36%) số người được hỏi cho biết doanh nghiệp của họ có các quy định về việc sử dụng các công cụ AI tổng hợp, chẳng hạn như Chat GPT. Nhưng 20% cho biết công ty của họ đang cho phép từng nhân viên tự do sử dụng các công cụ AI trong tương lai gần.
Cuộc khảo sát của Conversica cho thấy có khoảng cách lãnh đạo trong việc biến AI có trách nhiệm thành hiện thực. Vì vậy, làm thế nào các nhà lãnh đạo công nghệ và các chuyên gia trong ngành kinh doanh có thể đẩy mạnh việc đảm bảo áp dụng các biện pháp thực hành AI có trách nhiệm? Dưới đây là một số nguyên tắc chính được nhóm AI của Google chia sẻ:
Sử dụng phương pháp thiết kế lấy con người làm trung tâm: "Cách người dùng thực tế trải nghiệm hệ thống của bạn là điều cần thiết để đánh giá tác động thực sự của các dự đoán, đề xuất và quyết định của nó. Các tính năng thiết kế được tích hợp sẵn các thông tin tiết lộ phù hợp: sự rõ ràng và khả năng kiểm soát là rất quan trọng đối với người dùng tốt kinh nghiệm. Lập mô hình phản hồi bất lợi tiềm ẩn sớm trong quá trình thiết kế, sau đó là thử nghiệm trực tiếp cụ thể và lặp lại cho một phần nhỏ lưu lượng truy cập trước khi triển khai đầy đủ.”
Tham khảo bài viết gốc tại đây:
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top