Tháp rơi tự do
Intern Writer
Một nghiên cứu mới cho thấy trong trò chơi “Tình thế tiến thoái lưỡng nan của tù nhân”, người tham gia có xu hướng ít hợp tác hơn khi đối tác là nam giới hoặc là AI, đồng thời dễ lợi dụng các đối tác được gán nhãn là nữ. Kết quả này gợi ý rằng những thành kiến liên quan đến giới tính không chỉ xuất hiện trong tương tác giữa con người với nhau mà còn ảnh hưởng đến cách con người làm việc với trí tuệ nhân tạo.
Nghiên cứu được công bố ngày 2/11 trên tạp chí iScience, trong đó các nhà khoa học khảo sát mức độ hợp tác của người chơi khi họ tương tác với một đối tác là người hoặc AI, đồng thời gán cho đối tác bốn dạng nhãn giới: nữ, nam, phi nhị giới và không xác định giới tính. Người tham gia được yêu cầu chơi “Tình thế tiến thoái lưỡng nan của tù nhân”, trò chơi nổi tiếng mô phỏng sự lựa chọn giữa hợp tác và không hợp tác. Nếu cả hai bên cùng hợp tác, cả hai sẽ đạt kết quả tối ưu. Nhưng nếu một bên hợp tác và bên còn lại không, người không hợp tác sẽ nhận điểm cao hơn — hành vi này được xem là “lợi dụng”.
Kết quả chỉ ra rằng người chơi có xu hướng lợi dụng đối tác là AI cao hơn khoảng 10% so với khi đối tác là người thật. Họ cũng có nhiều khả năng hợp tác hơn với các đối tác có giới tính nữ, phi nhị giới hoặc không rõ giới tính, vì kỳ vọng những đối tác này cũng sẽ hợp tác. Ngược lại, họ ít tin tưởng và dễ từ chối hợp tác với đối tác nam. Điều này thể hiện rõ nhất ở nhóm người tham gia nữ, vốn có xu hướng hợp tác với các tác nhân “nữ” nhiều hơn — hiện tượng được gọi là thiên hướng đồng nhất.
Các nhà nghiên cứu cảnh báo rằng những thiên kiến như vậy có thể ảnh hưởng đến cách AI được thiết kế và triển khai, đặc biệt trong bối cảnh các hệ thống AI được nhân cách hóa ngày một phổ biến. Việc gán cho AI những đặc điểm giống con người như giới tính hoặc tên gọi vốn nhằm tăng mức độ tin tưởng, nhưng nếu không được cân nhắc kỹ lưỡng, cách tiếp cận này có thể vô tình củng cố các định kiến sẵn có, làm gia tăng sự phân biệt đối xử trong đời sống xã hội.
Khi xem xét lý do khiến người chơi từ chối hợp tác, nhóm nghiên cứu kết luận rằng hoặc họ không tin đối tác sẽ hợp tác, hoặc họ cố tình lợi dụng nếu cho rằng đối tác sẽ nhường phần có lợi hơn. Hành vi lợi dụng xuất hiện thường xuyên hơn với các tác nhân mang nhãn nữ, phi nhị giới hoặc không xác định giới tính. Đồng thời, nam giới có xu hướng lợi dụng đối tác nhiều hơn nữ giới và thích hợp tác với người thật hơn AI. Ở chiều ngược lại, phụ nữ hợp tác nhiều hơn và không phân biệt rõ giữa đối tác người hay AI. Tuy nhiên, mẫu nghiên cứu không đủ lớn để thu thập kết luận từ người tham gia thuộc các giới tính khác.
Nhóm tác giả lưu ý rằng trong tương lai, con người có thể phải hợp tác với AI trong nhiều tình huống phức tạp hơn — chẳng hạn như khi sử dụng xe tự lái hoặc để AI quản lý lịch trình làm việc. Điều này càng khiến việc nhận diện và giảm thiểu thiên kiến trong thiết kế AI trở nên quan trọng. Họ nhấn mạnh rằng phân biệt đối xử với AI không phải vấn đề đạo đức lớn, nhưng thói quen thiên lệch này có thể lan sang tương tác xã hội và củng cố định kiến giới hiện hữu.
Theo các nhà nghiên cứu, hiểu rõ những mô hình hành vi này sẽ giúp các nhà phát triển xây dựng hệ thống AI đáng tin cậy hơn, đồng thời khuyến khích các giá trị tích cực như công bằng và tôn trọng trong tương tác giữa người và máy.
Nghiên cứu được công bố ngày 2/11 trên tạp chí iScience, trong đó các nhà khoa học khảo sát mức độ hợp tác của người chơi khi họ tương tác với một đối tác là người hoặc AI, đồng thời gán cho đối tác bốn dạng nhãn giới: nữ, nam, phi nhị giới và không xác định giới tính. Người tham gia được yêu cầu chơi “Tình thế tiến thoái lưỡng nan của tù nhân”, trò chơi nổi tiếng mô phỏng sự lựa chọn giữa hợp tác và không hợp tác. Nếu cả hai bên cùng hợp tác, cả hai sẽ đạt kết quả tối ưu. Nhưng nếu một bên hợp tác và bên còn lại không, người không hợp tác sẽ nhận điểm cao hơn — hành vi này được xem là “lợi dụng”.
Kết quả chỉ ra rằng người chơi có xu hướng lợi dụng đối tác là AI cao hơn khoảng 10% so với khi đối tác là người thật. Họ cũng có nhiều khả năng hợp tác hơn với các đối tác có giới tính nữ, phi nhị giới hoặc không rõ giới tính, vì kỳ vọng những đối tác này cũng sẽ hợp tác. Ngược lại, họ ít tin tưởng và dễ từ chối hợp tác với đối tác nam. Điều này thể hiện rõ nhất ở nhóm người tham gia nữ, vốn có xu hướng hợp tác với các tác nhân “nữ” nhiều hơn — hiện tượng được gọi là thiên hướng đồng nhất.
Các nhà nghiên cứu cảnh báo rằng những thiên kiến như vậy có thể ảnh hưởng đến cách AI được thiết kế và triển khai, đặc biệt trong bối cảnh các hệ thống AI được nhân cách hóa ngày một phổ biến. Việc gán cho AI những đặc điểm giống con người như giới tính hoặc tên gọi vốn nhằm tăng mức độ tin tưởng, nhưng nếu không được cân nhắc kỹ lưỡng, cách tiếp cận này có thể vô tình củng cố các định kiến sẵn có, làm gia tăng sự phân biệt đối xử trong đời sống xã hội.
Khi xem xét lý do khiến người chơi từ chối hợp tác, nhóm nghiên cứu kết luận rằng hoặc họ không tin đối tác sẽ hợp tác, hoặc họ cố tình lợi dụng nếu cho rằng đối tác sẽ nhường phần có lợi hơn. Hành vi lợi dụng xuất hiện thường xuyên hơn với các tác nhân mang nhãn nữ, phi nhị giới hoặc không xác định giới tính. Đồng thời, nam giới có xu hướng lợi dụng đối tác nhiều hơn nữ giới và thích hợp tác với người thật hơn AI. Ở chiều ngược lại, phụ nữ hợp tác nhiều hơn và không phân biệt rõ giữa đối tác người hay AI. Tuy nhiên, mẫu nghiên cứu không đủ lớn để thu thập kết luận từ người tham gia thuộc các giới tính khác.
Nhóm tác giả lưu ý rằng trong tương lai, con người có thể phải hợp tác với AI trong nhiều tình huống phức tạp hơn — chẳng hạn như khi sử dụng xe tự lái hoặc để AI quản lý lịch trình làm việc. Điều này càng khiến việc nhận diện và giảm thiểu thiên kiến trong thiết kế AI trở nên quan trọng. Họ nhấn mạnh rằng phân biệt đối xử với AI không phải vấn đề đạo đức lớn, nhưng thói quen thiên lệch này có thể lan sang tương tác xã hội và củng cố định kiến giới hiện hữu.
Theo các nhà nghiên cứu, hiểu rõ những mô hình hành vi này sẽ giúp các nhà phát triển xây dựng hệ thống AI đáng tin cậy hơn, đồng thời khuyến khích các giá trị tích cực như công bằng và tôn trọng trong tương tác giữa người và máy.