Trung Đào
Writer
Các quốc gia thành viên Liên minh châu Âu hôm thứ Ba 21/5/2024 đã đưa ra thỏa thuận cuối cùng về luật đầu tiên trên thế giới về quản lý trí tuệ nhân tạo, khi các tổ chức trên thế giới chạy đua đưa ra các biện pháp hạn chế đối với công nghệ.
Hội đồng EU cho biết họ đã phê duyệt Đạo luật AI - một bộ luật pháp lý mang tính đột phá nhằm đặt ra các quy tắc toàn diện xung quanh công nghệ trí tuệ nhân tạo.
Mathieu Michel, Bộ trưởng Ngoại giao về số hóa của Bỉ cho biết trong một tuyên bố hôm thứ Ba: “Việc thông qua đạo luật AI là một cột mốc quan trọng đối với Liên minh Châu Âu”.
Michel nói thêm: “Với đạo luật AI, Châu Âu nhấn mạnh tầm quan trọng của sự tin cậy, tính minh bạch và trách nhiệm giải trình khi xử lý các công nghệ mới, đồng thời đảm bảo công nghệ thay đổi nhanh chóng này có thể phát triển và thúc đẩy sự đổi mới của Châu Âu”.
Đạo luật AI áp dụng cách tiếp cận dựa trên rủi ro đối với trí tuệ nhân tạo, nghĩa là các ứng dụng công nghệ khác nhau được xử lý khác nhau, tùy thuộc vào các mối đe dọa được nhận thức mà chúng gây ra cho xã hội.
Luật cấm các ứng dụng AI được coi là “không thể chấp nhận được” về mức độ rủi ro của chúng. Các ứng dụng như vậy có cái gọi là hệ thống “chấm điểm xã hội” xếp hạng công dân dựa trên tổng hợp và phân tích dữ liệu của họ, chính sách dự đoán và nhận dạng cảm xúc ở nơi làm việc và trường học.
Các hệ thống AI có rủi ro cao bao gồm các phương tiện tự hành hoặc thiết bị y tế, được đánh giá dựa trên những rủi ro mà chúng gây ra đối với sức khỏe, sự an toàn và các quyền cơ bản của công dân. Chúng cũng bao gồm các ứng dụng của AI trong dịch vụ tài chính và giáo dục, nơi có nguy cơ sai lệch trong thuật toán AI.
Holman nói: “AI của EU không giống bất kỳ luật nào ở bất kỳ nơi nào khác trên trái đất. “Lần đầu tiên nó tạo ra một chế độ quản lý chi tiết cho AI.”
Holman nói thêm: “Những gã khổng lồ công nghệ của Hoa Kỳ đã theo dõi chặt chẽ luật đang phát triển này”. “Đã có rất nhiều nguồn tài trợ cho các hệ thống AI sáng tạo hướng tới công chúng, hệ thống này sẽ cần đảm bảo tuân thủ luật mới, luật này ở một số nơi khá khó khăn”.
Ủy ban EU sẽ có quyền phạt các công ty vi phạm Đạo luật AI lên tới 35 triệu euro (38 triệu USD) hoặc 7% doanh thu toàn cầu hàng năm của họ – tùy theo mức nào cao hơn.
Sự thay đổi trong luật của EU được đưa ra sau khi OpenAI ra mắt ChatGPT vào tháng 11 năm 2022. Vào thời điểm đó, các quan chức nhận ra rằng luật hiện hành thiếu chi tiết cần thiết để giải quyết các khả năng tiên tiến của công nghệ AI thế hệ mới nổi và những rủi ro xung quanh việc sử dụng tài liệu có bản quyền.
Nhưng theo Dessi Savova, một đối tác tại Clifford Chance, sẽ phải mất một thời gian trước khi những yêu cầu này thực sự có hiệu lực. Các hạn chế đối với các hệ thống có mục đích chung sẽ không bắt đầu cho đến 12 tháng sau khi Đạo luật AI có hiệu lực.
Và thậm chí sau đó, các hệ thống AI tổng hợp hiện đang có sẵn trên thị trường, như ChatGPT của OpenAI, Gemini của Google và Copilot của Microsoft, sẽ có “giai đoạn chuyển tiếp” cho họ 36 tháng kể từ ngày nó có hiệu lực để công nghệ của họ tuân thủ luật pháp.
Savova nói với CNBC qua email: “Đã đạt được thỏa thuận về Đạo luật AI - và bộ quy tắc đó sắp trở thành hiện thực”. “Bây giờ, sự chú ý phải chuyển sang việc thực thi và thực thi Đạo luật AI một cách hiệu quả”. #quảnlýAI
Hội đồng EU cho biết họ đã phê duyệt Đạo luật AI - một bộ luật pháp lý mang tính đột phá nhằm đặt ra các quy tắc toàn diện xung quanh công nghệ trí tuệ nhân tạo.
Mathieu Michel, Bộ trưởng Ngoại giao về số hóa của Bỉ cho biết trong một tuyên bố hôm thứ Ba: “Việc thông qua đạo luật AI là một cột mốc quan trọng đối với Liên minh Châu Âu”.
Michel nói thêm: “Với đạo luật AI, Châu Âu nhấn mạnh tầm quan trọng của sự tin cậy, tính minh bạch và trách nhiệm giải trình khi xử lý các công nghệ mới, đồng thời đảm bảo công nghệ thay đổi nhanh chóng này có thể phát triển và thúc đẩy sự đổi mới của Châu Âu”.
Đạo luật AI áp dụng cách tiếp cận dựa trên rủi ro đối với trí tuệ nhân tạo, nghĩa là các ứng dụng công nghệ khác nhau được xử lý khác nhau, tùy thuộc vào các mối đe dọa được nhận thức mà chúng gây ra cho xã hội.
Luật cấm các ứng dụng AI được coi là “không thể chấp nhận được” về mức độ rủi ro của chúng. Các ứng dụng như vậy có cái gọi là hệ thống “chấm điểm xã hội” xếp hạng công dân dựa trên tổng hợp và phân tích dữ liệu của họ, chính sách dự đoán và nhận dạng cảm xúc ở nơi làm việc và trường học.
Các hệ thống AI có rủi ro cao bao gồm các phương tiện tự hành hoặc thiết bị y tế, được đánh giá dựa trên những rủi ro mà chúng gây ra đối với sức khỏe, sự an toàn và các quyền cơ bản của công dân. Chúng cũng bao gồm các ứng dụng của AI trong dịch vụ tài chính và giáo dục, nơi có nguy cơ sai lệch trong thuật toán AI.
Các công ty công nghệ lớn của Mỹ được chú ý
Matthew Holman, một đối tác tại công ty luật Cripps, cho biết các quy tắc này sẽ có ý nghĩa lớn đối với bất kỳ cá nhân hoặc tổ chức nào đang phát triển, tạo ra, sử dụng hoặc bán lại AI ở EU – trong đó các công ty công nghệ Hoa Kỳ luôn được chú ý.Holman nói: “AI của EU không giống bất kỳ luật nào ở bất kỳ nơi nào khác trên trái đất. “Lần đầu tiên nó tạo ra một chế độ quản lý chi tiết cho AI.”
Holman nói thêm: “Những gã khổng lồ công nghệ của Hoa Kỳ đã theo dõi chặt chẽ luật đang phát triển này”. “Đã có rất nhiều nguồn tài trợ cho các hệ thống AI sáng tạo hướng tới công chúng, hệ thống này sẽ cần đảm bảo tuân thủ luật mới, luật này ở một số nơi khá khó khăn”.
Ủy ban EU sẽ có quyền phạt các công ty vi phạm Đạo luật AI lên tới 35 triệu euro (38 triệu USD) hoặc 7% doanh thu toàn cầu hàng năm của họ – tùy theo mức nào cao hơn.
Sự thay đổi trong luật của EU được đưa ra sau khi OpenAI ra mắt ChatGPT vào tháng 11 năm 2022. Vào thời điểm đó, các quan chức nhận ra rằng luật hiện hành thiếu chi tiết cần thiết để giải quyết các khả năng tiên tiến của công nghệ AI thế hệ mới nổi và những rủi ro xung quanh việc sử dụng tài liệu có bản quyền.
Con đường thực hiện còn dài
Luật này áp đặt những hạn chế cứng rắn đối với các hệ thống AI có tính sáng tạo, được EU gọi là AI “có mục đích chung”. Chúng bao gồm các yêu cầu tôn trọng luật bản quyền của EU, tiết lộ minh bạch về cách đào tạo các mô hình, kiểm tra thường xuyên và các biện pháp bảo vệ an ninh mạng đầy đủ.Nhưng theo Dessi Savova, một đối tác tại Clifford Chance, sẽ phải mất một thời gian trước khi những yêu cầu này thực sự có hiệu lực. Các hạn chế đối với các hệ thống có mục đích chung sẽ không bắt đầu cho đến 12 tháng sau khi Đạo luật AI có hiệu lực.
Và thậm chí sau đó, các hệ thống AI tổng hợp hiện đang có sẵn trên thị trường, như ChatGPT của OpenAI, Gemini của Google và Copilot của Microsoft, sẽ có “giai đoạn chuyển tiếp” cho họ 36 tháng kể từ ngày nó có hiệu lực để công nghệ của họ tuân thủ luật pháp.
Savova nói với CNBC qua email: “Đã đạt được thỏa thuận về Đạo luật AI - và bộ quy tắc đó sắp trở thành hiện thực”. “Bây giờ, sự chú ý phải chuyển sang việc thực thi và thực thi Đạo luật AI một cách hiệu quả”. #quảnlýAI