Trách nhiệm thuật toán là gì? Làm thế nào để buộc các thuật toán phải chịu trách nhiệm?

Thoại Viết Hoàng
Thoại Viết Hoàng
Phản hồi: 0
1766494852131.png

Trách nhiệm thuật toán là khái niệm chỉ ai phải chịu trách nhiệm, chịu giải trình và chịu hậu quả khi một quyết định được đưa ra bởi hệ thống thuật toán hoặc AI, thay vì do con người trực tiếp quyết định.

Nói ngắn gọn, khi máy móc “quyết định”, thì không được phép để trách nhiệm biến mất. Vậy làm thế nào để buộc các thuật toán phải chịu trách nhiệm?

Các thuật toán hiện đang được sử dụng rộng rãi trong cả khu vực công và tư, hỗ trợ các quyết định trong mọi lĩnh vực từ giáo dục và việc làm đến tư pháp hình sự. Nhưng bất chấp tiềm năng tăng hiệu quả, các thuật toán được cung cấp dữ liệu lớn cũng có thể làm trầm trọng thêm sự phân biệt đối xử về cấu trúc , gây ra lỗi dẫn đến việc từ chối dịch vụ cho cá nhân , hoặc thậm chí khiến cử tri có cảm giác an toàn giả tạo. Thật vậy, ngày càng có nhiều nhận thức rằng công chúng nên cảnh giác với những rủi ro xã hội do sự phụ thuộc quá mức vào các hệ thống này và cần nỗ lực để buộc chúng phải chịu trách nhiệm .

Nhiều nỗ lực trong ngành, bao gồm cả một liên minh các tập đoàn khổng lồ ở Thung lũng Silicon, đang bắt đầu giải quyết vấn đề đạo đức của việc triển khai các thuật toán có thể gây ra những tác động khó lường đối với xã hội. Các nhà phát triển thuật toán và quản lý sản phẩm cần những cách thức mới để suy nghĩ, thiết kế và triển khai các hệ thống thuật toán một cách có trách nhiệm với công chúng. Trong vài tháng qua, chúng tôi và một số đồng nghiệp đã cố gắng giải quyết những mục tiêu này bằng cách xây dựng một bộ nguyên tắc cho các thuật toán có trách nhiệm .

Hãy xem xét một trường hợp mà việc giám sát bằng thuật toán là vô cùng cần thiết: điểm đánh giá rủi ro được sử dụng để đưa ra các quyết định trong hệ thống tư pháp hình sự của Hoa Kỳ. Những điểm số này được tính toán bằng cách đặt ra một loạt câu hỏi liên quan đến các yếu tố như tuổi tác, tiền án tiền sự và các đặc điểm khác của bị cáo. Dữ liệu được đưa vào thuật toán để tính toán điểm số, sau đó điểm số này có thể được sử dụng trong các quyết định về giam giữ trước xét xử, quản chế, tạm tha hoặc thậm chí là tuyên án. Và các mô hình này thường được đào tạo bằng cách sử dụng các thuật toán học máy độc quyền và dữ liệu về các bị cáo trước đó.

Các cuộc điều tra gần đây cho thấy các thuật toán đánh giá rủi ro có thể mang tính thiên vị chủng tộc, tạo ra các điểm số mà khi sai sót thường xuyên phân loại sai các bị cáo da đen vào nhóm rủi ro cao. Những kết quả này đã gây ra nhiều tranh cãi. Do tính chất thay đổi cuộc sống của những quyết định dựa trên thuật toán này, chúng cần được xem xét cẩn thận và phải chịu trách nhiệm về những hậu quả tiêu cực.

Các thuật toán và dữ liệu vận hành chúng đều do con người thiết kế và tạo ra. Ngay cả đối với các kỹ thuật như thuật toán di truyền tự tiến hóa, hoặc các thuật toán học máy mà mô hình kết quả không được con người tự tay thiết kế, thì kết quả vẫn bị ảnh hưởng bởi các quyết định thiết kế của con người, các quy tắc về những gì cần tối ưu hóa và các lựa chọn về dữ liệu huấn luyện cần sử dụng. Việc viện dẫn lý do "thuật toán tự động làm" không phải là lời bào chữa chấp nhận được nếu các hệ thống thuật toán mắc lỗi hoặc gây ra hậu quả không mong muốn.

Trách nhiệm giải trình hàm ý nghĩa vụ phải báo cáo và biện minh cho việc ra quyết định bằng thuật toán, cũng như giảm thiểu mọi tác động tiêu cực đến xã hội hoặc những tổn hại tiềm tàng. Chúng ta sẽ xem xét trách nhiệm giải trình thông qua năm nguyên tắc cốt lõi: trách nhiệm, khả năng giải thích, tính chính xác, khả năng kiểm toán và tính công bằng.

Trách nhiệm. Đối với bất kỳ hệ thống thuật toán nào, cần phải có một người có thẩm quyền để xử lý kịp thời những tác động tiêu cực đến cá nhân hoặc xã hội. Đây không phải là tuyên bố về trách nhiệm pháp lý, mà là tập trung vào các kênh giải quyết khiếu nại, đối thoại công khai và thẩm quyền nội bộ để thay đổi. Điều này có thể đơn giản như việc trao quyền và nguồn lực nội bộ cho một người trong nhóm kỹ thuật của bạn để thay đổi hệ thống, đồng thời đảm bảo thông tin liên lạc của người đó được công khai.

Khả năng giải thích. Bất kỳ quyết định nào được đưa ra bởi một hệ thống thuật toán đều phải có thể giải thích được cho những người bị ảnh hưởng bởi các quyết định đó. Những lời giải thích này phải dễ tiếp cận và dễ hiểu đối với đối tượng mục tiêu; các mô tả thuần túy kỹ thuật không phù hợp với công chúng. Việc giải thích điểm đánh giá rủi ro cho bị cáo và luật sư của họ sẽ thúc đẩy sự hiểu biết tốt hơn và giúp họ phản bác những sai sót rõ ràng hoặc dữ liệu sai lệch. Một số mô hình học máy có khả năng giải thích tốt hơn những mô hình khác, nhưng chỉ vì có sự tham gia của một mạng nơ-ron phức tạp không có nghĩa là không thể đưa ra một lời giải thích có ý nghĩa.

Độ chính xác. Các thuật toán đều có thể mắc lỗi, dù là do lỗi dữ liệu đầu vào (đầu vào sai, đầu ra sai) hay do sự không chắc chắn về mặt thống kê trong đầu ra. Nguyên tắc về độ chính xác cho thấy rằng các nguồn lỗi và sự không chắc chắn trong toàn bộ thuật toán và các nguồn dữ liệu của nó cần được xác định, ghi lại và đánh giá. Hiểu được bản chất của các lỗi do hệ thống thuật toán tạo ra có thể giúp xây dựng các quy trình giảm thiểu lỗi.

Tính khả kiểm toán. Nguyên tắc về tính khả kiểm toán nêu rõ rằng các thuật toán nên được phát triển để cho phép bên thứ ba kiểm tra và xem xét hoạt động của thuật toán. Việc cho phép giám sát, kiểm tra và phê bình các thuật toán sẽ dẫn đến thiết kế có ý thức hơn và điều chỉnh kịp thời trong trường hợp xảy ra lỗi. Mặc dù có thể có những thách thức kỹ thuật trong việc cho phép kiểm toán công khai trong khi vẫn bảo vệ thông tin độc quyền, nhưng việc kiểm toán riêng tư (như trong kế toán) có thể cung cấp một số đảm bảo công khai. Nếu có thể, ngay cả việc truy cập hạn chế (ví dụ: thông qua API) cũng sẽ cho phép công chúng có cơ hội quý giá để kiểm toán các thuật toán có ý nghĩa xã hội này .

Công bằng. Khi các thuật toán ngày càng đưa ra quyết định dựa trên dữ liệu lịch sử và xã hội, những định kiến hiện có và các quyết định phân biệt đối xử trong quá khứ của con người có nguy cơ bị "cố tình" bám vào các quyết định tự động. Tất cả các thuật toán đưa ra quyết định về cá nhân cần được đánh giá về tác động phân biệt đối xử. Kết quả đánh giá và các tiêu chí được sử dụng cần được công khai và giải thích rõ ràng.

Có rất nhiều không gian để điều chỉnh và diễn giải những nguyên tắc này cho phù hợp với bối cảnh của riêng bạn, và tất nhiên các mối quan tâm về chính trị, sở hữu trí tuệ hoặc kinh doanh sẽ can thiệp. Nhưng chúng tôi tin rằng việc xem xét những ý tưởng này trong suốt các chu kỳ thiết kế, triển khai và phát hành sẽ dẫn đến việc triển khai thuật toán một cách có trách nhiệm hơn về mặt xã hội.

Bạn bắt đầu như thế nào? Chúng tôi nêu ra một số câu hỏi thực tế mà nhóm sản phẩm và phát triển có thể cùng nhau giải quyết để xây dựng một tuyên bố về tác động xã hội nhằm đáp ứng các nguyên tắc này.

Nguồn: MIT
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL3RyYWNoLW5oaWVtLXRodWF0LXRvYW4tbGEtZ2ktbGFtLXRoZS1uYW8tZGUtYnVvYy1jYWMtdGh1YXQtdG9hbi1waGFpLWNoaXUtdHJhY2gtbmhpZW0uNzYzMDYv
Top