Tại sao mọi người phát điên về luật tuyển dụng AI của New York?

Luật là bước đầu tiên trong việc điều chỉnh AI, nhưng các nhà phê bình không hài lòng.
Bài viết này từ The Technocrat, bản tin chính sách công nghệ hàng tuần của MIT Technology Review về quyền lực, chính trị và Thung lũng Silicon. Để nhận nó trong hộp thư đến của bạn vào thứ Sáu hàng tuần, hãy đăng ký tại đây.
Tuần trước, một đạo luật về AI và tuyển dụng đã có hiệu lực ở Thành phố New York và mọi người đều ủng hộ điều đó. Đây là một trong những luật AI đầu tiên ở quốc gia này, và do đó, cách nó diễn ra sẽ cung cấp manh mối về cách chính sách và tranh luận về AI có thể hình thành ở các thành phố khác. Quy định tuyển dụng AI là một phần của Đạo luật AI ở Châu Âu và các tiểu bang khác ở Hoa Kỳ đang xem xét các dự luật tương tự như của New York.
Việc sử dụng AI trong tuyển dụng đã bị chỉ trích vì cách nó tự động hóa và tạo ra những thành kiến về chủng tộc và giới tính hiện có. Các hệ thống AI đánh giá nét mặt và ngôn ngữ của ứng viên đã được chứng minh là ưu tiên các ứng viên da trắng, nam giới và có thân hình cân đối. Vấn đề rất lớn và nhiều công ty sử dụng AI ít nhất một lần trong quá trình tuyển dụng. Chủ tịch Ủy ban Cơ hội Việc làm Bình đẳng Hoa Kỳ Charlotte Burrows cho biết trong một cuộc họp vào tháng 1 rằng có tới 4/5 công ty sử dụng tự động hóa để đưa ra quyết định tuyển dụng.
Luật Công cụ quyết định việc làm tự động của NYC, có hiệu lực vào thứ Tư, nói rằng những người sử dụng lao động sử dụng AI trong tuyển dụng phải nói với các ứng viên rằng họ đang làm như vậy. Họ cũng sẽ phải gửi các cuộc kiểm toán độc lập hàng năm để chứng minh rằng hệ thống của họ không phân biệt chủng tộc hoặc phân biệt giới tính. Các ứng viên sẽ có thể yêu cầu thông tin từ các nhà tuyển dụng tiềm năng về dữ liệu nào được thu thập và phân tích bởi công nghệ. Vi phạm sẽ dẫn đến tiền phạt lên đến $1,500.
Những người ủng hộ luật nói rằng đó là một khởi đầu tốt để điều chỉnh AI và giảm thiểu một số tác hại và rủi ro xung quanh việc sử dụng nó, ngay cả khi nó không hoàn hảo. Nó yêu cầu các công ty hiểu rõ hơn về các thuật toán mà họ sử dụng và liệu công nghệ có phân biệt đối xử không công bằng đối với phụ nữ hoặc người da màu hay không. Đây cũng là một thành công về quy định khá hiếm khi nói đến chính sách AI ở Hoa Kỳ và chúng ta có thể sẽ thấy nhiều hơn về các quy định cụ thể của địa phương này. Nghe có vẻ đầy hứa hẹn, phải không?
Nhưng luật đã gặp phải tranh cãi đáng kể. Các nhóm lợi ích công cộng và những người ủng hộ quyền công dân nói rằng nó không thể thực thi và đủ rộng rãi, trong khi các doanh nghiệp sẽ phải tuân thủ nó cho rằng nó không thực tế và nặng nề.
Các nhóm như Trung tâm Dân chủ & Công nghệ, Dự án Giám sát Công nghệ Giám sát (S.T.O.P.), Quỹ Giáo dục và Bảo vệ Pháp lý NAACP và Liên minh Quyền tự do Dân sự New York lập luận rằng luật này “không bao gồm” và có nguy cơ loại bỏ nhiều cách sử dụng hệ thống tự động trong việc tuyển dụng, bao gồm cả các hệ thống trong đó AI được sử dụng để sàng lọc hàng nghìn ứng viên.
Hơn nữa, không rõ chính xác kiểm toán độc lập sẽ đạt được những gì, vì ngành kiểm toán hiện nay còn quá non nớt. BSA, một nhóm thương mại công nghệ có ảnh hưởng có các thành viên bao gồm Adobe, Microsoft và IBM, đã gửi ý kiến đến thành phố vào tháng 1 chỉ trích luật, cho rằng kiểm toán của bên thứ ba là “không khả thi”.
Albert Fox Cahn, giám đốc điều hành của S.T.O.P. “Sẽ giống như nếu chúng tôi có kiểm toán viên tài chính, nhưng chúng tôi không có các nguyên tắc kế toán được chấp nhận rộng rãi, chứ chưa nói đến mã số thuế và các quy tắc kiểm toán.”
Cahn lập luận rằng luật này có thể tạo ra cảm giác sai lầm về an ninh và an toàn về AI và tuyển dụng. Ông nói: “Đây là một khoản nghỉ phép được coi là bằng chứng bảo vệ khỏi các hệ thống này trong khi trên thực tế, tôi không nghĩ rằng một công ty sẽ phải chịu trách nhiệm vì điều này đã được đưa vào luật.
Điều quan trọng là các cuộc kiểm tra bắt buộc sẽ phải đánh giá xem đầu ra của hệ thống AI có thiên vị đối với một nhóm người hay không, bằng cách sử dụng một số liệu gọi là “tỷ lệ tác động” để xác định xem “tỷ lệ lựa chọn” của công nghệ có khác nhau giữa các nhóm khác nhau hay không. Các cuộc kiểm tra sẽ không phải tìm cách xác định cách thức một thuật toán đưa ra quyết định và luật xoay quanh những thách thức về “khả năng giải thích” của các hình thức học máy phức tạp, chẳng hạn như học sâu. Như bạn có thể mong đợi, sự thiếu sót đó cũng là một chủ đề tranh luận sôi nổi giữa các chuyên gia AI.
Ở Hoa Kỳ, chúng tôi có thể sẽ thấy nhiều quy định về AI hơn thuộc loại này — luật địa phương áp dụng một ứng dụng cụ thể của công nghệ — khi chúng tôi chờ luật liên bang. Và chính trong những trận chiến cục bộ này, chúng ta có thể hiểu cách các công cụ AI, cơ chế an toàn và việc thực thi sẽ được định nghĩa như thế nào trong những thập kỷ tới. Hiện tại, New Jersey và California đang xem xét các luật tương tự.
Tham khảo bài viết gốc tại đây:
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top