EU sẽ làm gì để quản lý trí tuệ nhân tạo?

Mr. Darcy

Editor
Thành viên BQT
Châu Âu hy vọng chốt được bộ luật quản lý trí tuệ nhân tạo (AI) đầu tiên trên thế giới vào cuối năm nay, nhưng đạt được điều này không dễ dàng do công nghệ này đang phát triển và tiến hóa từng ngày.
Liên minh châu Âu (EU) đã đưa ra một số biện pháp để quản lý trí tuệ nhân tạo (AI), bao gồm:
EU sẽ làm gì để quản lý trí tuệ nhân tạo?
Xuất bản Bộ hướng dẫn đạo đức cho AI vào năm 2019, nhằm thúc đẩy sự phát triển của AI theo những cách phù hợp với các giá trị và nguyên tắc của EU, chẳng hạn như tôn trọng quyền con người, bảo vệ quyền riêng tư và chống phân biệt đối xử.
Tung ra Sách trắng về trí tuệ nhân tạo vào năm 2020, trong đó đặt ra các mục tiêu và ưu tiên cho sự phát triển của AI ở châu Âu, bao gồm việc đảm bảo rằng AI được phát triển và sử dụng một cách an toàn, có trách nhiệm và bền vững.
Ban hành Đạo luật AI vào năm 2022, đây là bộ luật toàn diện đầu tiên trên thế giới về quản lý AI. Đạo luật này quy định các yêu cầu cụ thể đối với các hệ thống AI, tùy thuộc vào mức độ rủi ro mà chúng có thể gây ra.
Cụ thể, Đạo luật AI của EU sẽ áp dụng cho tất cả các sản phẩm và dịch vụ sử dụng AI, bao gồm cả những sản phẩm và dịch vụ được phát triển và triển khai bên ngoài châu Âu. Đạo luật này sẽ phân loại các hệ thống AI theo bốn nhóm rủi ro:
Rủi ro tối thiểu: Hệ thống AI không có khả năng gây ra rủi ro nghiêm trọng cho con người hoặc xã hội.
Rủi ro có thể chấp nhận được: Hệ thống AI có khả năng gây ra rủi ro đáng kể cho con người hoặc xã hội, nhưng những rủi ro này có thể được giảm thiểu bằng các biện pháp thích hợp.
Rủi ro đáng kể: Hệ thống AI có khả năng gây ra rủi ro nghiêm trọng cho con người hoặc xã hội, và các biện pháp giảm thiểu rủi ro là không đủ.
Rủi ro không thể chấp nhận được: Hệ thống AI có khả năng gây ra rủi ro nghiêm trọng cho con người hoặc xã hội, và không có biện pháp nào có thể giảm thiểu rủi ro này.
Các hệ thống AI thuộc nhóm rủi ro đáng kể hoặc không thể chấp nhận được sẽ phải đáp ứng các yêu cầu bổ sung, bao gồm:
Đánh giá rủi ro: Các nhà phát triển và triển khai hệ thống AI phải thực hiện đánh giá rủi ro để xác định các rủi ro tiềm ẩn của hệ thống.
Tuân thủ các nguyên tắc đạo đức: Các hệ thống AI phải tuân thủ các nguyên tắc đạo đức của EU, chẳng hạn như không phân biệt đối xử, tôn trọng quyền riêng tư và bảo vệ quyền con người.
Ghi nhãn rõ ràng: Các hệ thống AI phải được ghi nhãn rõ ràng để người dùng có thể nhận biết được chúng.
Cung cấp thông tin về dữ liệu: Các nhà phát triển và triển khai hệ thống AI phải cung cấp thông tin về dữ liệu được sử dụng để đào tạo hệ thống.
Tính minh bạch: Các hệ thống AI phải được thiết kế và hoạt động một cách minh bạch để người dùng có thể hiểu được cách chúng hoạt động.
Trách nhiệm: Các nhà phát triển và triển khai hệ thống AI phải chịu trách nhiệm về các hành vi của hệ thống.
Đạo luật AI của EU vẫn đang trong quá trình đàm phán, và dự kiến sẽ được thông qua vào cuối năm 2023. Nếu được thông qua, đây sẽ là một bước quan trọng trong việc đảm bảo rằng AI được phát triển và sử dụng một cách an toàn, có trách nhiệm và bền vững ở châu Âu.
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top