A-Train The Seven
...'cause for once, I didn't hate myself.
Sự tràn lan của công nghệ AI tạo ảnh, video và âm thanh chân thực đang đặt ra thách thức chưa từng có đối với hệ thống tư pháp Mỹ. Thẩm phán Pamela Gates tại Phoenix, Arizona, chia sẻ sự lo ngại ngày càng tăng về khả năng phân định sự thật trong bối cảnh này. Những bằng chứng như hình ảnh bầm tím bị cáo buộc là sản phẩm chỉnh sửa kỹ thuật số, hoặc bản ghi âm nghe giống hệt giọng nói của bị cáo nhưng lại phủ nhận nội dung, đang trở nên khó kiểm chứng hơn bao giờ hết.
"Trước đây, việc đánh giá bằng chứng đơn giản hơn, dựa trên kinh nghiệm và khả năng xác minh bằng mắt thường," Thẩm phán Gates, người đang chủ trì một nhóm nghiên cứu của tòa án Arizona về vấn đề này, cho biết. "Nhưng giờ đây, khả năng đó đã biến mất."
Sự bùng nổ của các hệ thống AI tạo sinh giá rẻ đã thúc đẩy các học giả pháp lý hàng đầu kêu gọi thay đổi các quy tắc về bằng chứng đã được áp dụng tại Mỹ trong 50 năm qua. Các đề xuất, bao gồm một số được ủy ban tư vấn của tòa án liên bang xem xét, sẽ chuyển gánh nặng xác định tính xác thực khỏi bồi thẩm đoàn và giao nhiều trách nhiệm hơn cho thẩm phán trong việc phân biệt sự thật và hư cấu trước khi xét xử bắt đầu.
Giáo sư Maura Grossman, chuyên gia khoa học máy tính và luật, cùng với cựu thẩm phán liên bang Paul Grimm, đã đề xuất thay đổi luật bằng chứng liên bang nhằm giải quyết vấn đề deepfake. Họ cho rằng bồi thẩm đoàn không thể dễ dàng loại bỏ ảnh hưởng của bằng chứng giả mạo, do đó cần trao thêm quyền lực cho tòa án. Giáo sư Rebecca Delfino tại Trường Luật Loyola cũng đưa ra những đề xuất thay đổi quy tắc bằng chứng. Bà dẫn chứng các nghiên cứu cho thấy việc tiếp xúc với video giả mạo có thể khiến người ta đưa ra lời khai sai lệch và bồi thẩm đoàn xem video kèm lời khai miệng có khả năng ghi nhớ thông tin gấp hơn sáu lần so với chỉ nghe lời khai.
Hiện tại, thẩm phán có quyền loại bỏ bằng chứng khả nghi là giả mạo, nhưng tiêu chuẩn để đưa bằng chứng tranh chấp ra bồi thẩm đoàn tương đối thấp. Theo quy tắc hiện hành, nếu một bên cho rằng bản ghi âm không phải là giọng nói của họ, bên kia chỉ cần gọi một nhân chứng quen thuộc với giọng nói đó ra làm chứng là đủ. Điều này dễ dàng bị lợi dụng trong thời đại deepfake tinh vi.
Những người đề xuất luật mới cũng muốn bảo vệ bồi thẩm đoàn khỏi việc bị cáo buộc bằng chứng hợp lệ là giả mạo – một hiện tượng được gọi là "liars' dividend" (cơ hội cho kẻ nói dối). Họ lo ngại rằng sự phổ biến của nội dung AI tạo sinh trên mạng sẽ khiến bồi thẩm đoàn dễ tin vào những cáo buộc sai lệch này. Nhiều bị cáo đã sử dụng chiến thuật này trong các vụ án nổi bật, như trong vụ bạo loạn Điện Capitol và vụ kiện liên quan đến tai nạn xe Tesla.
Đề xuất của Grossman và Grimm sẽ trao cho thẩm phán vai trò kiểm soát mạnh mẽ hơn đối với bằng chứng. Bên nào thách thức tính xác thực của bằng chứng phải chứng minh đủ thuyết phục thẩm phán rằng bồi thẩm đoàn "có lý do để tin" bằng chứng đó đã bị thay đổi hoặc làm giả. Sau đó, bên muốn đưa ra bằng chứng phải cung cấp thông tin xác thực. Cuối cùng, thẩm phán sẽ quyết định xem giá trị chứng cứ có vượt trội hơn nguy cơ gây hại cho bồi thẩm đoàn hay không.
Đề xuất của Delfino sẽ loại bỏ hoàn toàn vấn đề deepfake khỏi tay bồi thẩm đoàn. Bên nào cáo buộc bằng chứng là do AI tạo ra phải có ý kiến của chuyên gia pháp y trước khi xét xử. Thẩm phán sẽ xem xét báo cáo và quyết định tính xác thực của bằng chứng. Trong phiên tòa, thẩm phán sẽ hướng dẫn bồi thẩm đoàn xem xét bằng chứng đó là xác thực. Bên đưa ra cáo buộc deepfake phải chi trả cho chuyên gia pháp y, trừ khi họ không có đủ khả năng tài chính.
Việc thay đổi luật bằng chứng liên bang sẽ mất nhiều năm và cần được nhiều ủy ban, cuối cùng là Tòa án Tối cao phê duyệt. Ủy ban Tư vấn về Quy tắc Bằng chứng chưa quyết định về các đề xuất nhằm vào deepfake. Giáo sư Daniel Capra cho rằng nên chờ xem cách thẩm phán xử lý các vụ án deepfake theo luật hiện hành trước khi thay đổi. Tuy nhiên, ông cũng cho rằng một quy tắc mới có thể cần thiết.
Các công cụ phát hiện AI hiện nay vẫn chưa đủ chính xác để sử dụng trong tòa án. Các nhà nghiên cứu đã thử nghiệm bốn công cụ phát hiện deepfake nổi tiếng và kết quả không khả quan: các công cụ này xác định sai từ 71% đến 99% video giả mạo là video thật. Công nghệ watermarking cũng chưa đủ tin cậy để giải quyết vấn đề.
Cho đến nay, có rất ít vụ án công khai mà tòa án phải đối mặt với deepfake hoặc các cáo buộc bằng chứng do AI tạo ra. Tuy nhiên, các thẩm phán và học giả pháp lý bày tỏ lo ngại về các vụ án ít được chú ý, đặc biệt là ở các tòa án gia đình, nơi các bên tranh chấp thường không có luật sư hoặc nguồn lực tài chính để thuê chuyên gia. Điều này đặt ra câu hỏi về khả năng tiếp cận công lý trong thời đại deepfake.
"Trước đây, việc đánh giá bằng chứng đơn giản hơn, dựa trên kinh nghiệm và khả năng xác minh bằng mắt thường," Thẩm phán Gates, người đang chủ trì một nhóm nghiên cứu của tòa án Arizona về vấn đề này, cho biết. "Nhưng giờ đây, khả năng đó đã biến mất."
Sự bùng nổ của các hệ thống AI tạo sinh giá rẻ đã thúc đẩy các học giả pháp lý hàng đầu kêu gọi thay đổi các quy tắc về bằng chứng đã được áp dụng tại Mỹ trong 50 năm qua. Các đề xuất, bao gồm một số được ủy ban tư vấn của tòa án liên bang xem xét, sẽ chuyển gánh nặng xác định tính xác thực khỏi bồi thẩm đoàn và giao nhiều trách nhiệm hơn cho thẩm phán trong việc phân biệt sự thật và hư cấu trước khi xét xử bắt đầu.
Giáo sư Maura Grossman, chuyên gia khoa học máy tính và luật, cùng với cựu thẩm phán liên bang Paul Grimm, đã đề xuất thay đổi luật bằng chứng liên bang nhằm giải quyết vấn đề deepfake. Họ cho rằng bồi thẩm đoàn không thể dễ dàng loại bỏ ảnh hưởng của bằng chứng giả mạo, do đó cần trao thêm quyền lực cho tòa án. Giáo sư Rebecca Delfino tại Trường Luật Loyola cũng đưa ra những đề xuất thay đổi quy tắc bằng chứng. Bà dẫn chứng các nghiên cứu cho thấy việc tiếp xúc với video giả mạo có thể khiến người ta đưa ra lời khai sai lệch và bồi thẩm đoàn xem video kèm lời khai miệng có khả năng ghi nhớ thông tin gấp hơn sáu lần so với chỉ nghe lời khai.
Hiện tại, thẩm phán có quyền loại bỏ bằng chứng khả nghi là giả mạo, nhưng tiêu chuẩn để đưa bằng chứng tranh chấp ra bồi thẩm đoàn tương đối thấp. Theo quy tắc hiện hành, nếu một bên cho rằng bản ghi âm không phải là giọng nói của họ, bên kia chỉ cần gọi một nhân chứng quen thuộc với giọng nói đó ra làm chứng là đủ. Điều này dễ dàng bị lợi dụng trong thời đại deepfake tinh vi.
Những người đề xuất luật mới cũng muốn bảo vệ bồi thẩm đoàn khỏi việc bị cáo buộc bằng chứng hợp lệ là giả mạo – một hiện tượng được gọi là "liars' dividend" (cơ hội cho kẻ nói dối). Họ lo ngại rằng sự phổ biến của nội dung AI tạo sinh trên mạng sẽ khiến bồi thẩm đoàn dễ tin vào những cáo buộc sai lệch này. Nhiều bị cáo đã sử dụng chiến thuật này trong các vụ án nổi bật, như trong vụ bạo loạn Điện Capitol và vụ kiện liên quan đến tai nạn xe Tesla.
Các đề xuất
Đề xuất của Grossman và Grimm sẽ trao cho thẩm phán vai trò kiểm soát mạnh mẽ hơn đối với bằng chứng. Bên nào thách thức tính xác thực của bằng chứng phải chứng minh đủ thuyết phục thẩm phán rằng bồi thẩm đoàn "có lý do để tin" bằng chứng đó đã bị thay đổi hoặc làm giả. Sau đó, bên muốn đưa ra bằng chứng phải cung cấp thông tin xác thực. Cuối cùng, thẩm phán sẽ quyết định xem giá trị chứng cứ có vượt trội hơn nguy cơ gây hại cho bồi thẩm đoàn hay không.
Đề xuất của Delfino sẽ loại bỏ hoàn toàn vấn đề deepfake khỏi tay bồi thẩm đoàn. Bên nào cáo buộc bằng chứng là do AI tạo ra phải có ý kiến của chuyên gia pháp y trước khi xét xử. Thẩm phán sẽ xem xét báo cáo và quyết định tính xác thực của bằng chứng. Trong phiên tòa, thẩm phán sẽ hướng dẫn bồi thẩm đoàn xem xét bằng chứng đó là xác thực. Bên đưa ra cáo buộc deepfake phải chi trả cho chuyên gia pháp y, trừ khi họ không có đủ khả năng tài chính.
Không có giải pháp nhanh chóng
Việc thay đổi luật bằng chứng liên bang sẽ mất nhiều năm và cần được nhiều ủy ban, cuối cùng là Tòa án Tối cao phê duyệt. Ủy ban Tư vấn về Quy tắc Bằng chứng chưa quyết định về các đề xuất nhằm vào deepfake. Giáo sư Daniel Capra cho rằng nên chờ xem cách thẩm phán xử lý các vụ án deepfake theo luật hiện hành trước khi thay đổi. Tuy nhiên, ông cũng cho rằng một quy tắc mới có thể cần thiết.
Các công cụ phát hiện AI hiện nay vẫn chưa đủ chính xác để sử dụng trong tòa án. Các nhà nghiên cứu đã thử nghiệm bốn công cụ phát hiện deepfake nổi tiếng và kết quả không khả quan: các công cụ này xác định sai từ 71% đến 99% video giả mạo là video thật. Công nghệ watermarking cũng chưa đủ tin cậy để giải quyết vấn đề.
Cho đến nay, có rất ít vụ án công khai mà tòa án phải đối mặt với deepfake hoặc các cáo buộc bằng chứng do AI tạo ra. Tuy nhiên, các thẩm phán và học giả pháp lý bày tỏ lo ngại về các vụ án ít được chú ý, đặc biệt là ở các tòa án gia đình, nơi các bên tranh chấp thường không có luật sư hoặc nguồn lực tài chính để thuê chuyên gia. Điều này đặt ra câu hỏi về khả năng tiếp cận công lý trong thời đại deepfake.