Năm bài học lớn từ Đạo luật AI của Châu Âu

Cuộc bỏ phiếu Đạo luật AI được thông qua với đa số áp đảo, nhưng phiên bản cuối cùng có thể sẽ hơi khác một chút.
Năm bài học lớn từ Đạo luật AI của Châu Âu
Bài viết này từ The Technocrat, bản tin chính sách công nghệ hàng tuần của MIT Technology Review về quyền lực, chính trị và Thung lũng Silicon. Để nhận nó trong hộp thư đến của bạn vào thứ Sáu hàng tuần, hãy đăng ký tại đây.
Đó là một tuần quan trọng trong chính sách công nghệ ở châu Âu với việc Nghị viện châu Âu bỏ phiếu thông qua dự thảo quy tắc cho Đạo luật AI vào cùng ngày các nhà lập pháp EU đệ đơn kiện chống độc quyền mới chống lại Google.
Cuộc bỏ phiếu Đạo luật AI được thông qua với đa số áp đảo và được coi là một trong những bước phát triển quan trọng nhất của thế giới trong quy định về AI. Chủ tịch Nghị viện Châu Âu, Roberta Metsola, đã mô tả đây là “luật pháp chắc chắn sẽ thiết lập tiêu chuẩn toàn cầu trong nhiều năm tới.”
Tuy nhiên, đừng nín thở vì bất kỳ sự rõ ràng nào ngay lập tức. Hệ thống châu Âu hơi phức tạp. Tiếp theo, các thành viên của Nghị viện châu Âu sẽ phải thảo luận chi tiết với Hội đồng Liên minh châu Âu và cơ quan điều hành của EU, Ủy ban châu Âu, trước khi các quy tắc dự thảo trở thành luật. Luật cuối cùng sẽ là sự thỏa hiệp giữa ba dự thảo khác nhau từ ba thể chế, vốn khác nhau rất nhiều. Có thể sẽ mất khoảng hai năm trước khi các luật này thực sự được thực thi.
Những gì cuộc bỏ phiếu hôm thứ Tư đã đạt được là phê chuẩn vị trí của Nghị viện Châu Âu trong các cuộc đàm phán cuối cùng sắp tới. Có cấu trúc tương tự như Đạo luật dịch vụ kỹ thuật số của EU, một khuôn khổ pháp lý cho các nền tảng trực tuyến, Đạo luật AI áp dụng “cách tiếp cận dựa trên rủi ro” bằng cách đưa ra các hạn chế dựa trên mức độ nguy hiểm mà các nhà lập pháp dự đoán một ứng dụng AI có thể gây ra. Các doanh nghiệp cũng sẽ phải gửi các đánh giá rủi ro của riêng họ về việc sử dụng AI của họ.
Một số ứng dụng của AI sẽ bị cấm hoàn toàn nếu các nhà lập pháp coi rủi ro là “không thể chấp nhận được”, trong khi các công nghệ được coi là “rủi ro cao” sẽ có những hạn chế mới về việc sử dụng và các yêu cầu về tính minh bạch.
- Cấm AI nhận dạng cảm xúc. Văn bản dự thảo của Nghị viện Châu Âu cấm sử dụng AI cố gắng nhận biết cảm xúc của mọi người trong cảnh sát, trường học và nơi làm việc. Các nhà sản xuất phần mềm nhận dạng cảm xúc cho rằng AI có thể xác định khi nào học sinh không hiểu tài liệu nhất định hoặc khi người lái xe ô tô có thể ngủ gật. Việc sử dụng AI để tiến hành phát hiện và phân tích khuôn mặt đã bị chỉ trích là không chính xác và sai lệch, nhưng nó không bị cấm trong văn bản dự thảo của hai tổ chức kia, cho thấy sắp có một cuộc chiến chính trị.
- Cấm sinh trắc học thời gian thực và chính sách dự đoán trong không gian công cộng. Đây sẽ là một cuộc chiến lập pháp lớn, bởi vì các cơ quan khác nhau của EU sẽ phải phân loại xem liệu lệnh cấm có được thực thi theo luật hay không và bằng cách nào. Các nhóm cảnh sát không ủng hộ lệnh cấm đối với các công nghệ sinh trắc học thời gian thực mà họ cho là cần thiết cho hoạt động cảnh sát hiện đại. Một số quốc gia, như Pháp, đang thực sự lên kế hoạch tăng cường sử dụng nhận dạng khuôn mặt.
- Cấm chấm điểm xã hội. Việc chấm điểm xã hội của các cơ quan công cộng, hoặc việc sử dụng dữ liệu về hành vi xã hội của mọi người để đưa ra các khái quát và hồ sơ, sẽ bị đặt ngoài vòng pháp luật. Điều đó nói rằng, triển vọng về điểm số xã hội, thường được gắn với Trung Quốc và các chính phủ ******* khác, không thực sự đơn giản như vẻ ngoài của nó. Việc sử dụng dữ liệu hành vi xã hội để đánh giá con người là phổ biến trong việc thanh toán các khoản thế chấp và đặt mức bảo hiểm, cũng như trong tuyển dụng và quảng cáo.
- Những hạn chế mới đối với gen AI. Dự thảo này là dự thảo đầu tiên đề xuất các cách điều chỉnh AI tổng quát và cấm sử dụng bất kỳ tài liệu có bản quyền nào trong tập huấn luyện các mô hình ngôn ngữ lớn như GPT-4 của OpenAI. OpenAI đã chịu sự giám sát của các nhà lập pháp châu Âu vì những lo ngại về quyền riêng tư và bản quyền dữ liệu. Dự thảo luật cũng yêu cầu nội dung do AI tạo ra phải được dán nhãn như vậy. Điều đó nói rằng, Nghị viện Châu Âu hiện phải bán chính sách của mình cho Ủy ban Châu Âu và các quốc gia riêng lẻ, những quốc gia có khả năng phải đối mặt với áp lực vận động hành lang từ ngành công nghệ.
Hạn chế mới về thuật toán đề xuất trên phương tiện truyền thông xã hội. Dự thảo mới gán các hệ thống tư vấn vào danh mục “rủi ro cao”, đây là một bước leo thang so với các dự luật được đề xuất khác. Điều này có nghĩa là nếu nó được thông qua, các hệ thống giới thiệu trên các nền tảng truyền thông xã hội sẽ được xem xét kỹ lưỡng hơn nhiều về cách thức hoạt động của chúng và các công ty công nghệ có thể phải chịu trách nhiệm nhiều hơn về tác động của nội dung do người dùng tạo.
Những rủi ro của AI như được mô tả bởi Margrethe Vestager, phó chủ tịch điều hành của Ủy ban EU, là rất phổ biến. Cô ấy đã nhấn mạnh những lo ngại về tương lai của niềm tin vào thông tin, tính dễ bị thao túng xã hội bởi những kẻ xấu và sự giám sát hàng loạt.
Vestager nói với các phóng viên hôm thứ Tư: “Nếu chúng ta rơi vào một tình huống mà chúng ta không tin vào điều gì, thì chúng ta đã làm suy yếu hoàn toàn xã hội của mình.
Những gì tôi đang đọc trong tuần này
Một người lính Nga đã đầu hàng một máy bay không người lái tấn công của Ukraine, theo đoạn video do Tạp chí Phố Wall đăng tải. Việc đầu hàng diễn ra vào tháng 5 tại thành phố phía đông Bakhmut, Ukraine. Người điều khiển máy bay không người lái đã quyết định tha mạng cho người lính, theo luật pháp quốc tế, khi nhìn thấy lời cầu xin của anh ta qua video. Máy bay không người lái đóng vai trò quan trọng trong chiến tranh, và sự đầu hàng là một cái nhìn hấp dẫn về tương lai của chiến tranh.
Nhiều Redditor đang phản đối những thay đổi đối với API của trang web sẽ loại bỏ hoặc giảm chức năng của các ứng dụng và công cụ bên thứ ba mà nhiều cộng đồng sử dụng. Để phản đối, những cộng đồng đó đã “chuyển sang chế độ riêng tư”, điều đó có nghĩa là các trang không còn có thể truy cập công khai được nữa. Reddit được biết đến với sức mạnh mà nó mang lại cho cơ sở người dùng của mình, nhưng công ty hiện có thể đang hối hận về điều đó, theo đánh giá sắc bén của Casey Newton.
Nhân viên hợp đồng đã đào tạo mô hình ngôn ngữ lớn của Google, Bard, nói rằng họ đã bị sa thải sau khi nêu lên những lo ngại về điều kiện làm việc và các vấn đề an toàn với chính AI. Các nhà thầu nói rằng họ buộc phải đáp ứng thời hạn vô lý, dẫn đến lo ngại về độ chính xác. Google cho biết trách nhiệm thuộc về Appen, cơ quan hợp đồng tuyển dụng công nhân. Nếu lịch sử cho chúng ta biết bất cứ điều gì, thì sẽ có một cái giá phải trả về con người trong cuộc đua thống trị trí tuệ nhân tạo.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top