Hiểu về quá trình ra quyết định của AI

Ngọc Yến
Ngọc Yến
Phản hồi: 0
1740319301145.png

Khung SAGE để giải thích bối cảnh trong AI có thể giải thích được (Mill và cộng sự, 2024).
Chúng ta có đang đặt niềm tin vào công nghệ mà chúng ta chưa hiểu hết không? Một nghiên cứu mới từ Đại học Surrey xuất hiện vào thời điểm các hệ thống AI đang đưa ra quyết định tác động đến cuộc sống hàng ngày của chúng ta—từ ngân hàng và chăm sóc sức khỏe đến phát hiện tội phạm. Nghiên cứu kêu gọi thay đổi ngay lập tức cách thiết kế và đánh giá các mô hình AI, nhấn mạnh nhu cầu về tính minh bạch và độ tin cậy trong các thuật toán mạnh mẽ này.
Nghiên cứu này được công bố trên tạp chí Applied Artificial Intelligence.

Khi AI được tích hợp vào các lĩnh vực có rủi ro cao, nơi các quyết định có thể có hậu quả thay đổi cuộc sống, thì rủi ro liên quan đến các mô hình "hộp đen" lớn hơn bao giờ hết. Nghiên cứu làm sáng tỏ các trường hợp mà hệ thống AI phải cung cấp lời giải thích đầy đủ cho các quyết định của mình, cho phép người dùng tin tưởng và hiểu AI thay vì khiến họ bối rối và dễ bị tổn thương.

Với những trường hợp chẩn đoán sai trong chăm sóc sức khỏe và cảnh báo gian lận sai trong ngân hàng, khả năng gây hại - có thể đe dọa đến tính mạng - là rất lớn.

Các nhà nghiên cứu của Surrey nêu chi tiết những trường hợp đáng báo động khi các hệ thống AI không giải thích đầy đủ các quyết định của mình, khiến người dùng bối rối và dễ bị tổn thương. Các tập dữ liệu gian lận vốn mất cân bằng—0,01% là giao dịch gian lận—dẫn đến thiệt hại lên tới hàng tỷ đô la.

Mọi người có thể an tâm khi biết rằng hầu hết các giao dịch đều là giao dịch thật, nhưng sự mất cân bằng này thách thức AI trong việc học các mô hình gian lận. Tuy nhiên, các thuật toán AI có thể xác định giao dịch gian lận với độ chính xác cao nhưng hiện tại không có khả năng giải thích đầy đủ lý do tại sao giao dịch đó là gian lận.

Tiến sĩ Wolfgang Garn, đồng tác giả của nghiên cứu và là Giảng viên cao cấp về Phân tích tại Đại học Surrey, cho biết, "Chúng ta không được quên rằng đằng sau mỗi giải pháp của thuật toán, luôn có những con người thực sự có cuộc sống bị ảnh hưởng bởi các quyết định đã được đưa ra. Mục tiêu của chúng tôi là tạo ra các hệ thống AI không chỉ thông minh mà còn cung cấp những lời giải thích cho mọi người—những người sử dụng công nghệ—mà họ có thể tin tưởng và hiểu được".
Nghiên cứu đề xuất một khuôn khổ toàn diện được gọi là SAGE (Cài đặt, Đối tượng, Mục tiêu và Đạo đức) để giải quyết các vấn đề quan trọng này. SAGE được thiết kế để đảm bảo rằng các giải thích về AI không chỉ dễ hiểu mà còn phù hợp với ngữ cảnh đối với người dùng cuối.

Bằng cách tập trung vào nhu cầu và hoàn cảnh cụ thể của đối tượng mục tiêu, khuôn khổ SAGE hướng đến mục tiêu thu hẹp khoảng cách giữa các quy trình ra quyết định phức tạp của AI và những người vận hành phụ thuộc vào chúng.

Kết hợp với khuôn khổ này, nghiên cứu sử dụng các kỹ thuật Thiết kế dựa trên kịch bản (SBD), đào sâu vào các kịch bản trong thế giới thực để tìm ra những gì người dùng thực sự cần từ các giải thích AI. Phương pháp này khuyến khích các nhà nghiên cứu và nhà phát triển đặt mình vào vị trí của người dùng cuối, đảm bảo rằng các hệ thống AI được chế tạo với sự đồng cảm và hiểu biết cốt lõi.

Tiến sĩ Garn cho biết, "Chúng ta cũng cần nêu bật những thiếu sót của các mô hình AI hiện có, thường thiếu nhận thức theo ngữ cảnh cần thiết để đưa ra những giải thích có ý nghĩa. Bằng cách xác định và giải quyết những khoảng trống này, bài báo của chúng tôi ủng hộ sự phát triển trong quá trình phát triển AI, ưu tiên các nguyên tắc thiết kế lấy người dùng làm trung tâm.

"Nó kêu gọi các nhà phát triển AI tích cực hợp tác với các chuyên gia trong ngành và người dùng cuối, thúc đẩy một môi trường hợp tác nơi những hiểu biết sâu sắc từ nhiều bên liên quan có thể định hình tương lai của AI. Con đường đến một bối cảnh AI an toàn và đáng tin cậy hơn bắt đầu bằng cam kết hiểu công nghệ chúng ta tạo ra và tác động của nó đến cuộc sống của chúng ta. Rủi ro quá lớn khiến chúng ta không thể bỏ qua lời kêu gọi thay đổi."

Nghiên cứu này nhấn mạnh tầm quan trọng của các mô hình AI trong việc giải thích kết quả đầu ra dưới dạng văn bản hoặc biểu diễn đồ họa, đáp ứng nhu cầu hiểu biết đa dạng của người dùng.

Sự thay đổi này nhằm đảm bảo rằng các giải thích không chỉ dễ tiếp cận mà còn có thể thực hiện được, cho phép người dùng đưa ra quyết định sáng suốt dựa trên thông tin chi tiết của AI.
Tham khảo chi tiết tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top