thuha19051234
Pearl
Một nghiên cứu mới vừa tiết lộ, các mô hình học sâu dựa trên trí tuệ nhân tạo có thể xác định chủng tộc của ai đó chỉ từ tia X của họ - điều mà một bác sĩ bình thường không thể khi chỉ nhìn vào hình ảnh tương tự.
Bên cạnh đó, phát hiện đặt ra một số câu hỏi đáng lo ngại về vai trò của AI trong chẩn đoán, đánh giá và điều trị y tế: liệu thành kiến chủng tộc có thể vô tình được áp dụng bởi phần mềm máy tính khi nghiên cứu những hình ảnh như thế này không?
Thật kinh ngạc, AI có thể dự đoán danh tính chủng tộc được báo cáo của bệnh nhân trên những hình ảnh này với độ chính xác đáng ngạc nhiên, ngay cả khi bản quét được thực hiện từ những người cùng tuổi và cùng giới tính. Hệ thống đạt mức chính xác 90% với một số nhóm hình ảnh.
Các nhà nghiên cứu đã tiến hành thử nghiệm nhằm mục đích đánh giá toàn diện khả năng AI nhận ra danh tính chủng tộc của bệnh nhân từ các hình ảnh y tế. Họ cũng muốn xác nhận rằng các mô hình học sâu AI tiêu chuẩn có thể được đào tạo để dự đoán chủng tộc từ các hình ảnh y tế với hiệu suất cao trên nhiều phương thức hình ảnh, được duy trì trong các điều kiện xác nhận bên ngoài. Nghiên cứu này lặp lại kết quả của một nghiên cứu trước đó cho thấy, việc quét hình ảnh X-quang bằng trí tuệ nhân tạo có nhiều khả năng bỏ sót các dấu hiệu bệnh tật ở người Da đen. Và để hạn chế tối đa điều này có thể xảy ra, các nhà khoa học cần hiểu tại sao nguyên nhân của nó ngay từ ban đầu.
Về bản chất, AI sẽ bắt chước suy nghĩ của con người để nhanh chóng phát hiện ra các mẫu trong dữ liệu. Tuy nhiên, điều này cũng có nghĩa nó có thể vô tình bị sai lầm trước các thành kiến tương tự, tệ hơn nữa là sự phức tạp của chúng khiến chúng ta khó tháo gỡ những định kiến mà con người đã tự thêu dệt nên.
Các nhà nghiên cứu cho biết việc phát hiện rằng AI có thể dự đoán chính xác chủng tộc tự báo cáo, ngay cả từ các hình ảnh y tế bị hỏng, cắt xén và chỉnh sửa, thường khi các chuyên gia lâm sàng không làm được, tạo ra rủi ro lớn cho tất cả các triển khai mô hình trong hình ảnh y tế. Một nghiên cứu bổ sung vào nhiều bằng chứng có sẵn ngày càng nhiều lên cho thấy các hệ thống AI thường có thể phản ánh thành kiến và định kiến của con người cho dù đó là phân biệt chủng tộc, phân biệt giới tính hay điều gì khác tương tự. Dữ liệu đào tạo bị sai lệch có thể dẫn đến kết quả sai lệch, khiến chúng trở nên kém hữu ích hơn nhiều.
Những điều này cần được cân bằng với tiềm năng mạnh mẽ của trí tuệ nhân tạo để thu nhập được nhiều dữ liệu hơn so với con người có thể làm ở nhiều môi trường và lĩnh vực, từ các kỹ thuật phát hiện dịch bệnh đến các mô hình biến đổi khí hậu.
Vẫn còn rất nhiều câu hỏi chưa được giải đáp từ nghiên cứu, nhưng hiện tại, điều quan trọng là phải nhận thức được khả năng thành kiến về chủng tộc đã xuất hiện trong các hệ thống trí tuệ nhân tạo - chính thành kiến đó có thể là rào cản khi chúng ta giao nhiều trách nhiệm hơn cho những hệ thống trong tương lai.
Vì vậy, các nhà nghiên cứu cho rằng không nên vội vàng đưa các thuật toán vào các bệnh viện và phòng khám, cho đến khi có kết luận chắc chắn rằng chúng không đưa ra những quyết định thể hiện sự phân biệt chủng tộc hoặc giới tính.
Nguồn sciencealert
Bên cạnh đó, phát hiện đặt ra một số câu hỏi đáng lo ngại về vai trò của AI trong chẩn đoán, đánh giá và điều trị y tế: liệu thành kiến chủng tộc có thể vô tình được áp dụng bởi phần mềm máy tính khi nghiên cứu những hình ảnh như thế này không?
AI được đào tạo có khả năng nhận dạng chủng tộc chính xác dựa trên hình ảnh X-quang
Sau khi AI được đào tạo bằng cách sử dụng hàng trăm nghìn hình ảnh X-quang hiện có được gắn nhãn chi tiết về chủng tộc của bệnh nhân, nhóm các nhà nghiên cứu sức khỏe quốc tế từ Mỹ, Canada và Đài Loan đã thử nghiệm hệ thống của họ trên các hình ảnh X-quang mà phần mềm máy tính chưa từng thấy trước đây và cũng không hề có thông tin bổ sung nào.Các nhà nghiên cứu đã tiến hành thử nghiệm nhằm mục đích đánh giá toàn diện khả năng AI nhận ra danh tính chủng tộc của bệnh nhân từ các hình ảnh y tế. Họ cũng muốn xác nhận rằng các mô hình học sâu AI tiêu chuẩn có thể được đào tạo để dự đoán chủng tộc từ các hình ảnh y tế với hiệu suất cao trên nhiều phương thức hình ảnh, được duy trì trong các điều kiện xác nhận bên ngoài. Nghiên cứu này lặp lại kết quả của một nghiên cứu trước đó cho thấy, việc quét hình ảnh X-quang bằng trí tuệ nhân tạo có nhiều khả năng bỏ sót các dấu hiệu bệnh tật ở người Da đen. Và để hạn chế tối đa điều này có thể xảy ra, các nhà khoa học cần hiểu tại sao nguyên nhân của nó ngay từ ban đầu.
Về bản chất, AI sẽ bắt chước suy nghĩ của con người để nhanh chóng phát hiện ra các mẫu trong dữ liệu. Tuy nhiên, điều này cũng có nghĩa nó có thể vô tình bị sai lầm trước các thành kiến tương tự, tệ hơn nữa là sự phức tạp của chúng khiến chúng ta khó tháo gỡ những định kiến mà con người đã tự thêu dệt nên.
Khả năng dự đoán của AI phản ánh những thành kiến về chủng tộc con người
Hiện tại, các nhà khoa học vẫn chưa rõ tại sao hệ thống AI lại có khả năng xác định chủng tộc tốt như vậy từ những hình ảnh không chứa thông tin như vậy, ít nhất là không phải trên bề mặt. Ngay cả khi cung cấp những thông tin dữ liệu hạn chế, chẳng hạn như bằng cách loại bỏ manh mối về mật độ xương hoặc tập trung vào một phần nhỏ của cơ thể, các mẫu AI vẫn thể hiện tốt trong việc dự đoán dựa trên hồ sơ được cung cấp. Có thể hệ thống AI đang tìm ra các dấu hiệu của melanin, sắc tố tạo nên màu sắc cho da, mà khoa học vẫn chưa biết.Những điều này cần được cân bằng với tiềm năng mạnh mẽ của trí tuệ nhân tạo để thu nhập được nhiều dữ liệu hơn so với con người có thể làm ở nhiều môi trường và lĩnh vực, từ các kỹ thuật phát hiện dịch bệnh đến các mô hình biến đổi khí hậu.
Vẫn còn rất nhiều câu hỏi chưa được giải đáp từ nghiên cứu, nhưng hiện tại, điều quan trọng là phải nhận thức được khả năng thành kiến về chủng tộc đã xuất hiện trong các hệ thống trí tuệ nhân tạo - chính thành kiến đó có thể là rào cản khi chúng ta giao nhiều trách nhiệm hơn cho những hệ thống trong tương lai.
Vì vậy, các nhà nghiên cứu cho rằng không nên vội vàng đưa các thuật toán vào các bệnh viện và phòng khám, cho đến khi có kết luận chắc chắn rằng chúng không đưa ra những quyết định thể hiện sự phân biệt chủng tộc hoặc giới tính.
Nguồn sciencealert