VnReview
Hà Nội

Hơn 1.000 chuyên gia AI lên án các thuật toán dự đoán tội phạm phân biệt chủng tộc

Các chuyên gia công nghệ đến từ MIT, Đại học Harvard và Google dẫn một nghiên cứu mới khẳng định, phần mềm nhận diện tội phạm dựa trên gương mặt đang vi phạm nghiêm trọng chính sách phân biệt chủng tộc.

Cụ thể hơn 1.000 chuyên gia công nghệ và các học giả đã lên tiếng chống lại các thuật toán dự đoán tội phạm chỉ dựa vào khuôn mặt của một người. Họ khẳng định, công nghệ này chỉ đang củng cố sự thiên vị chủng tộc vốn đã tồn tại từ lâu trong hệ thống tư pháp hình sự của nhiều nước, trong đó có Mỹ.

Bức thư công khai đã được các chuyên gia AI và học giả từ MIT, Đại học Harvard, Google và Microsoft đồng loạt ký tên. Họ kêu gọi công ty xuất bản Springer tạm thời dừng xuất bản một bài báo sắp tới. Bài báo này mô tả một hệ thống có thể dự đoán một ai đó có thể là tội phạm chỉ bằng một bức ảnh khuôn mặt của họ. Độ chính xác được tiết lộ là 80% và cam kết không có sự phân biệt chủng tộc.

Tuy nhiên theo Audrey Beard, một chuyên gia ký tên vào bức thư cho biết, đơn giản là không có cách nào tạo ra được một hệ thống có thể dự đoán tội phạm mà không xảy ra tình trạng phân biệt chủng tộc. Bởi lẽ dữ liệu tư pháp hình sự vốn đã phân biệt chủng tộc.

Bức thư kêu gọi Springer rút lại bài báo khỏi tạp chí Springer Nature, đồng thời lên án việc sử dụng phương pháp này và yêu cầu phải cam kết không công bố các nghiên cứu tương tự trong tương lai.

Đây không phải lần đầu tiên các nhà nghiên cứu AI đưa ra những tuyên bố như vậy. Các nhà nghiên cứu máy học từng lên án về các bài báo tương tự phát hành hồi năm 2017. Bài báo đó có nhắc đến một thuật toán đặc biệt có thể dự đoán hành vi phạm tội trong tương lai bằng khuôn mặt của những người từng bị kết án.

Các chuyên gia công nghệ cho rằng, các thuật toán thiên vị như vậy sẽ cho phép các nhà thực thi pháp luật tiếp tục duy trì tình trạng phân biệt chủng tộc và phân biệt đối xử.

Bức thư xuất hiện trong bối cảnh các cuộc biểu tình chống phân biệt chủng tộc và bạo lực đang nổ ra trên khắp nước Mỹ sau cái chết của Breonna Taylor, George Floyd, Tony McDade và nhiều người da đen khác từng bị cảnh sát giết chết.

Thậm chí nhiều hãng công nghệ chuyên cung cấp thuật toán nhận dạng khuôn mặt như IBM, Amazon và Microsoft đã tuyên bố sẽ dừng cung cấp các hệ thống này cho phía cảnh sát để hạn chế tối đa các sự cố làm thổi bùng lên vấn nạn phân biệt chủng tộc tròng lòng nước Mỹ.

Mai Huyền theo Vice

Chủ đề khác