Mỹ không phải quốc gia nổi tiếng về tư pháp hình sự. Mặc dù tỷ lệ giam giữ có giảm nhẹ trong thời gian gần đây, nhưng từng đó vẫn không đủ để thoát khỏi danh sách những quốc gia có tỷ lệ phạm tội nhiều nhất. Theo một số ước tính, trung bình 100.000 người thì có khoảng 639 người đang chịu án phạt giam giữ.
Đại dịch COVID-19 cũng không cải thiện được tình hình trên. Các hồ sơ tồn đọng liên tục đè nặng lên hệ thống vốn đã rất cồng kềnh, đến mức bộ phận công tố viên của bang Chicago chuẩn bị bỏ hàng nghìn vụ án cấp thấp vì quá hạn xử lý.
Nhận thấy khó khăn này có thể ảnh hưởng đến nhiều mặt của nước Mỹ, bộ phận tư pháp bắt đầu nhờ cậy đến công nghệ trí tuệ nhân tạo. Họ hy vọng công nghệ có thể đơn giản hóa các quy trình tư pháp, tích cực giảm bớt gánh nặng hậu cần mà hệ thống đang gồng gánh.
Thuật toán pháp y đã dần đi vào quỹ đạo hoạt động và được áp dụng rộng rãi trong bộ máy tư pháp Mỹ. Phần mềm đối chứng dấu vân tay, công nghệ nhận diện khuôn mặt và công nghệ xác định kiểu gen giúp công tác điều tra, phá án đạt hiệu quả cao.
Khi được sử dụng đúng mục đích, những công cụ trên mang lại hiệu quả vượt trội. Cũng giống như việc ứng dụng AI trong công nghệ vũ khí đã giảm thiểu đáng kể sai sót của con người trong tình huống sống hoặc chết, thuật toán pháp y đưa ra các đánh giá khách quan hơn về dữ liệu hiện trường vụ án, giảm tỷ lệ giam giữ và kết án oan.
Mặc dù được ca ngợi là công cụ cách mạng dẫn con người đến một tương lai tốt đẹp hơn, AI không hoàn hảo tuyệt đối.
Vụ án tại tòa án Quận Columbia năm 2017 là minh chứng rõ ràng nhất về tính bất lợi của AI. Luật sư Rachel Cicurel đại diện cho Dịch vụ Bảo vệ Công cộng và thân chủ chính là nạn nhân của một sự cố lập trình lỗi AI.
Công tố viên ban đầu đã đồng ý với bản án từ phía luật sư bị cáo, nhưng sau khi nhận một báo cáo pháp y dựa trên thuật toán phân tích dự đoán tỷ lệ tái phạm của bị cáo là rất cao, công tố viên đã thay đổi bản án từ quản chế thành đưa vào trại giam vị thành niên.
Cicurel sau đó đã yêu cầu tòa án cho phép xem chi tiết bản đánh giá ban đầu, và cô phát hiện rằng, công nghệ AI này chưa được bất kỳ tổ chức khoa học độc lập nào đánh giá. Thậm chí kết quả còn cho thấy nó được thiết kế bởi một nhóm người có thành kiến về chủng tộc. Nhờ vậy, cô đã thành công đảo ngược bản án tuyên bố của tòa án.
Nhiều người lo lắng, điểm yếu của công nghệ AI đang được che đậy kín đáo bằng lớp áo toán học, khả năng máy học và dữ liệu, để tước đoạt quyền tự do con người. Các sản phẩm của trí óc con người rõ ràng bị ràng buộc vào hệ thống tư tưởng chủ quan của người thiết kế.
Để giải quyết những lo lắng này, Hạ nghị sĩ Takano đã giới thiệu Đạo luật Công lý trong Thuật toán Pháp y vào năm 2019. Một dự luật đảm bảo quyền được bảo vệ của bị cáo, cũng như đưa ra phương pháp cụ thể nhất khi sử dụng phần mềm AI pháp y. Takano đã giới thiệu lại dự luật vào đầu năm nay với nhà đồng tài trợ Dwight Evans (D-Penn).
“Chúng tôi chỉ đơn giản là không cho phép các công ty phần mềm coi công nghệ của họ là độc quyền, hoặc bí mật thương mại của họ là bất khả xâm phạm. Qua đó nhấn mạnh cần tuân theo đúng trình tự thực thi pháp luật, đảm bảo quyền lợi của bị cáo”, Takano trả lời phỏng vấn của Interest Engineering.
Phần lớn công ty công nghệ đều tuyên bố phương pháp luận, mã nguồn và quy trình của họ phải được giữ bí mật tuyệt đối, tránh vi phạm quyền sở hữu trí tuệ, hoặc đánh cắp trái phép.
Những người chỉ trích cho rằng, thuật toán này bị che dấu khỏi quá trình thẩm tra chéo trong phòng xử án, và các bị cáo phải bị động chấp nhận tính tin cậy của loại bằng chứng mà thuật toán cung cấp.
Hạ nghị sĩ Takano tuyên bố các nhà cung cấp phần mềm này có tội khi nhân danh bảo vệ công lý nhưng lại phớt lờ quyền của bị cáo, đặt lợi ích tài chính lên trên quyền con người.
Tòa án phúc thẩm bang New Jersey gần đây đã yêu cầu công ty phần mềm pháp y Cybergenetics cho phép luật sư của bị cáo truy cập vào mã nguồn của chương trình phân tích DNA được dùng trong quá trình điều tra. Tòa án tin rằng, đó là điều nên làm để đảm bảo quyền lợi đôi bên, giảm thiểu rủi ro của công nghệ AI.
“Chúng ta cần một hướng dẫn chung toàn quốc cho hệ thống pháp lý, đặt ra tiêu chuẩn cho các chương trình AI. Đây là điều mà các bị cáo, công tố viên, hay công ty công nghệ không thể làm được. Chính phủ và cơ quan liên bang như NIST (Viện Tiêu chuẩn và Công nghệ Quốc gia) cần đứng ra lãnh trách nhiệm”, Takano nói.
Một vấn đề khác của AI là thiếu những đánh giá độc lập khi xem xét tính hợp pháp của chúng. Theo yêu cầu của công tố viên, Văn phòng giải trình của Chính phủ Mỹ (GAO) đã công bố một báo cáo đánh giá tính hiệu quả và rủi ro liên quan đến việc sử dụng các thuật toán trong khoa học pháp y vào tháng 7.
Trong đó có đề cập đến công nghệ xác định kiểu gen theo xác suất, có một sự thật rằng đa số nghiên cứu đánh giá phần mềm được thực hiện bởi chính công ty hoặc cơ quan thi hành luật pháp chịu trách nhiệm thiết kế.
Báo cáo của GAO cũng lưu ý rằng, các công ty trên đang đi theo cùng một công thức, họ tuyên bố trước tòa rằng bằng chứng mà phần mềm của họ cung cấp có giá trị ngang với bằng chứng gốc. Ngoài ra, phía công ty cũng từ chối cung cấp quyền truy cập dữ liệu vào hệ thống nội bộ nếu vì mục đích điều tra, hoặc nghiên cứu.
“Việc họ e ngại trải qua khâu đánh giá từ một số chuyên gia trong ngành khẳng định tính thiếu khách quan của những sản phẩm công nghệ”, ông nói.
Ngoài ra, đạo luật của Takano còn giúp thành viên hệ thống tư pháp hiểu thêm về công nghệ pháp y, điều họ có thể và không thể làm trong quá trình đó.
“Đó là điều tôi muốn làm trong đạo luật mới. Không phải đánh giá một thuật toán sai hay đúng, mà là thiết lập bộ tiêu chuẩn, hướng dẫn cho tòa án, công tố viên, và luật sư những thứ công nghệ có thể làm”, ông nhấn mạnh.
Nếu các thuật toán pháp y không được đánh giá nghiêm túc, nó sẽ gây ra hậu quả nghiêm trọng liên đới nhiều người. Kẻ có tội được kết án vô tội, người vô tội lại phải ngồi sau song sắt trong nhiều năm. Khi công nghệ AI ngày càng phát triển mạnh mẽ hơn, cơ quan pháp luật cũng phải nghiêm khắc kiểm tra mọi mặt của chúng.
Đã có hàng trăm người Mỹ gốc Nhật trong thế chiến thứ hai bị lưu đày đến các trại cải tạo mà không có cơ hội biện hộ cho bản thân. Đây chính là bài học cho luật pháp Mỹ. Bài học về những tiêu chuẩn đạo đức xã hội dễ dàng bị lãng quên, phớt lờ.
Điều quan trọng là các công cụ mang tính cách mạng mà chúng ta làm ra phải hướng đến mục đích phục vụ tương lai tốt đẹp, đảm bảo không xâm phạm quyền và lợi ích bình đẳng của cá nhân.
Nguồn: Interesting Engineering
Nhận thấy khó khăn này có thể ảnh hưởng đến nhiều mặt của nước Mỹ, bộ phận tư pháp bắt đầu nhờ cậy đến công nghệ trí tuệ nhân tạo. Họ hy vọng công nghệ có thể đơn giản hóa các quy trình tư pháp, tích cực giảm bớt gánh nặng hậu cần mà hệ thống đang gồng gánh.
Thuật toán pháp y đã dần đi vào quỹ đạo hoạt động và được áp dụng rộng rãi trong bộ máy tư pháp Mỹ. Phần mềm đối chứng dấu vân tay, công nghệ nhận diện khuôn mặt và công nghệ xác định kiểu gen giúp công tác điều tra, phá án đạt hiệu quả cao.
Khi được sử dụng đúng mục đích, những công cụ trên mang lại hiệu quả vượt trội. Cũng giống như việc ứng dụng AI trong công nghệ vũ khí đã giảm thiểu đáng kể sai sót của con người trong tình huống sống hoặc chết, thuật toán pháp y đưa ra các đánh giá khách quan hơn về dữ liệu hiện trường vụ án, giảm tỷ lệ giam giữ và kết án oan.
Mặc dù được ca ngợi là công cụ cách mạng dẫn con người đến một tương lai tốt đẹp hơn, AI không hoàn hảo tuyệt đối.
Vị thẩm phán không hoàn hảo
Nếu người thiết kế mắc lỗi thì lẽ dĩ nhiên công nghệ đó cũng sẽ gặp trục trặc, và hậu quả của chúng lớn hay nhỏ tùy thuộc vào từng loại công nghệ. Đây là lý do nhiều người phản đối AI, với tần suất và độ bao phủ ngày càng tăng, nếu xảy ra sai sót thì rất khó để tưởng tượng hậu quả sẽ như thế nào.Vụ án tại tòa án Quận Columbia năm 2017 là minh chứng rõ ràng nhất về tính bất lợi của AI. Luật sư Rachel Cicurel đại diện cho Dịch vụ Bảo vệ Công cộng và thân chủ chính là nạn nhân của một sự cố lập trình lỗi AI.
Công tố viên ban đầu đã đồng ý với bản án từ phía luật sư bị cáo, nhưng sau khi nhận một báo cáo pháp y dựa trên thuật toán phân tích dự đoán tỷ lệ tái phạm của bị cáo là rất cao, công tố viên đã thay đổi bản án từ quản chế thành đưa vào trại giam vị thành niên.
Cicurel sau đó đã yêu cầu tòa án cho phép xem chi tiết bản đánh giá ban đầu, và cô phát hiện rằng, công nghệ AI này chưa được bất kỳ tổ chức khoa học độc lập nào đánh giá. Thậm chí kết quả còn cho thấy nó được thiết kế bởi một nhóm người có thành kiến về chủng tộc. Nhờ vậy, cô đã thành công đảo ngược bản án tuyên bố của tòa án.
Nhiều người lo lắng, điểm yếu của công nghệ AI đang được che đậy kín đáo bằng lớp áo toán học, khả năng máy học và dữ liệu, để tước đoạt quyền tự do con người. Các sản phẩm của trí óc con người rõ ràng bị ràng buộc vào hệ thống tư tưởng chủ quan của người thiết kế.
“Chúng tôi chỉ đơn giản là không cho phép các công ty phần mềm coi công nghệ của họ là độc quyền, hoặc bí mật thương mại của họ là bất khả xâm phạm. Qua đó nhấn mạnh cần tuân theo đúng trình tự thực thi pháp luật, đảm bảo quyền lợi của bị cáo”, Takano trả lời phỏng vấn của Interest Engineering.
Phần lớn công ty công nghệ đều tuyên bố phương pháp luận, mã nguồn và quy trình của họ phải được giữ bí mật tuyệt đối, tránh vi phạm quyền sở hữu trí tuệ, hoặc đánh cắp trái phép.
Những người chỉ trích cho rằng, thuật toán này bị che dấu khỏi quá trình thẩm tra chéo trong phòng xử án, và các bị cáo phải bị động chấp nhận tính tin cậy của loại bằng chứng mà thuật toán cung cấp.
Hạ nghị sĩ Takano tuyên bố các nhà cung cấp phần mềm này có tội khi nhân danh bảo vệ công lý nhưng lại phớt lờ quyền của bị cáo, đặt lợi ích tài chính lên trên quyền con người.
Có đáng tin?
Hiện tại, công nghệ AI đang được áp dụng tại nhiều bang của Mỹ, câu hỏi đặt ra là liệu bằng chứng do chúng cung cấp có đáng tin cậy không?Tòa án phúc thẩm bang New Jersey gần đây đã yêu cầu công ty phần mềm pháp y Cybergenetics cho phép luật sư của bị cáo truy cập vào mã nguồn của chương trình phân tích DNA được dùng trong quá trình điều tra. Tòa án tin rằng, đó là điều nên làm để đảm bảo quyền lợi đôi bên, giảm thiểu rủi ro của công nghệ AI.
“Chúng ta cần một hướng dẫn chung toàn quốc cho hệ thống pháp lý, đặt ra tiêu chuẩn cho các chương trình AI. Đây là điều mà các bị cáo, công tố viên, hay công ty công nghệ không thể làm được. Chính phủ và cơ quan liên bang như NIST (Viện Tiêu chuẩn và Công nghệ Quốc gia) cần đứng ra lãnh trách nhiệm”, Takano nói.
Trong đó có đề cập đến công nghệ xác định kiểu gen theo xác suất, có một sự thật rằng đa số nghiên cứu đánh giá phần mềm được thực hiện bởi chính công ty hoặc cơ quan thi hành luật pháp chịu trách nhiệm thiết kế.
Báo cáo của GAO cũng lưu ý rằng, các công ty trên đang đi theo cùng một công thức, họ tuyên bố trước tòa rằng bằng chứng mà phần mềm của họ cung cấp có giá trị ngang với bằng chứng gốc. Ngoài ra, phía công ty cũng từ chối cung cấp quyền truy cập dữ liệu vào hệ thống nội bộ nếu vì mục đích điều tra, hoặc nghiên cứu.
“Việc họ e ngại trải qua khâu đánh giá từ một số chuyên gia trong ngành khẳng định tính thiếu khách quan của những sản phẩm công nghệ”, ông nói.
Công nghệ mới đi kèm nhận thức mới
Giải thích về quyết định cho phép luật sư bào chữa tiếp cận với mã nguồn của Cybergenetic, Tòa án phúc thẩm bang New Jersey mong muốn tất cả bộ phận pháp lý có cơ hội làm quen với những vụ án có hỗ trợ công nghệ AI, từ đó đưa ra bản án công tâm nhất.Ngoài ra, đạo luật của Takano còn giúp thành viên hệ thống tư pháp hiểu thêm về công nghệ pháp y, điều họ có thể và không thể làm trong quá trình đó.
“Đó là điều tôi muốn làm trong đạo luật mới. Không phải đánh giá một thuật toán sai hay đúng, mà là thiết lập bộ tiêu chuẩn, hướng dẫn cho tòa án, công tố viên, và luật sư những thứ công nghệ có thể làm”, ông nhấn mạnh.
Máy học để trở thành con người
Các thuật toán máy học rất xuất sắc trong việc tìm kiếm các mẫu trong dữ liệu. Nếu một thuật toán được cung cấp đủ số liệu, nó sẽ tìm ra mối liên hệ cũng như những dự đoán xuất sắc. Nhưng theo MIT Technology Review, con người có thể chuyển hiểu biết tương quan thành cơ chế luật nhân quả, xuyên tạc thực tế. Đó là một cạm bẫy chết người.Nếu các thuật toán pháp y không được đánh giá nghiêm túc, nó sẽ gây ra hậu quả nghiêm trọng liên đới nhiều người. Kẻ có tội được kết án vô tội, người vô tội lại phải ngồi sau song sắt trong nhiều năm. Khi công nghệ AI ngày càng phát triển mạnh mẽ hơn, cơ quan pháp luật cũng phải nghiêm khắc kiểm tra mọi mặt của chúng.
Đã có hàng trăm người Mỹ gốc Nhật trong thế chiến thứ hai bị lưu đày đến các trại cải tạo mà không có cơ hội biện hộ cho bản thân. Đây chính là bài học cho luật pháp Mỹ. Bài học về những tiêu chuẩn đạo đức xã hội dễ dàng bị lãng quên, phớt lờ.
Điều quan trọng là các công cụ mang tính cách mạng mà chúng ta làm ra phải hướng đến mục đích phục vụ tương lai tốt đẹp, đảm bảo không xâm phạm quyền và lợi ích bình đẳng của cá nhân.
Nguồn: Interesting Engineering