Thoại Viết Hoàng
Writer
Giám đốc điều hành của OpenAI, Sam Altman, đã dành cả tháng trước để đi thăm các thủ đô trên thế giới, tại các cuộc nói chuyện với những đám đông đã bán hết vé và trong các cuộc gặp với những người đứng đầu chính phủ, ông đã nhiều lần nói về sự cần thiết của quy định AI toàn cầu.
Nhưng đằng sau hậu trường, OpenAI đã vận động hành lang để các yếu tố quan trọng của luật AI toàn diện nhất trên thế giới—Đạo luật AI của Liên minh Châu Âu—được giảm nhẹ theo những cách giúp giảm gánh nặng pháp lý cho công ty, theo các tài liệu về sự tham gia của OpenAI với E.U. các quan chức mà TIME có được từ Ủy ban Châu Âu thông qua các yêu cầu về quyền tự do thông tin.
Trong một số trường hợp, OpenAI đã đề xuất các sửa đổi mà sau đó đã được thực hiện đối với văn bản cuối cùng của E.U. luật—đã được Nghị viện Châu Âu thông qua vào ngày 14 tháng 6 và hiện sẽ tiến hành vòng đàm phán cuối cùng trước khi được hoàn thiện ngay sau tháng Giêng.
Vào năm 2022, OpenAI đã nhiều lần tranh luận với các quan chức châu Âu rằng Đạo luật AI sắp tới không nên coi các hệ thống AI có mục đích chung của nó—bao gồm GPT-3, tiền thân của ChatGPT và trình tạo hình ảnh Dall-E 2—là “rủi ro cao”, một chỉ định sẽ khiến họ phải tuân theo các yêu cầu pháp lý nghiêm ngặt bao gồm tính minh bạch, khả năng truy xuất nguồn gốc và sự giám sát của con người.
Lập luận đó đã đưa OpenAI phù hợp với Microsoft, công ty đã đầu tư 13 tỷ đô la vào phòng thí nghiệm AI và Google, cả hai trước đây đã vận động hành lang E.U. các quan chức ủng hộ việc nới lỏng gánh nặng pháp lý của Đạo luật đối với các nhà cung cấp AI lớn. Cả hai công ty đều lập luận rằng gánh nặng tuân thủ các yêu cầu nghiêm ngặt nhất của Đạo luật phải thuộc về các công ty đặt mục tiêu rõ ràng là áp dụng AI cho trường hợp sử dụng có rủi ro cao—chứ không phải các công ty (thường lớn hơn) xây dựng các hệ thống AI có mục đích chung.
“Bản thân GPT-3 không phải là một hệ thống có rủi ro cao,” OpenAI cho biết trong một tài liệu dài bảy trang chưa được công bố trước đây mà nó gửi tới E.U. các quan chức của Ủy ban và Hội đồng vào tháng 9 năm 2022, có tiêu đề Sách trắng OpenAI về Đạo luật Trí tuệ Nhân tạo của Liên minh Châu Âu. “Nhưng [nó] sở hữu các khả năng có khả năng được sử dụng trong các trường hợp sử dụng có rủi ro cao.”
TIME đang xuất bản Sách Trắng đầy đủ cùng với câu chuyện này.
Những nỗ lực vận động hành lang này của OpenAI ở châu Âu trước đây chưa được báo cáo, mặc dù Altman gần đây đã lên tiếng nhiều hơn về luật pháp. Vào tháng 5, anh ấy nói với các phóng viên ở London rằng OpenAI có thể quyết định “ngừng hoạt động” ở châu Âu nếu họ cho rằng mình không thể tuân thủ quy định, theo đó anh ấy nói rằng anh ấy đã nhận “rất nhiều” lời chỉ trích. Sau đó, anh ấy đã rút lại lời cảnh báo, nói rằng công ty của anh ấy không có kế hoạch rời đi và có ý định hợp tác với E.U.
Tuy nhiên, nỗ lực vận động hành lang của OpenAI dường như đã thành công: dự thảo cuối cùng của Đạo luật đã được E.U. các nhà lập pháp không chứa từ ngữ có trong các bản dự thảo trước đó cho thấy rằng các hệ thống AI có mục đích chung nên được coi là rủi ro cao vốn có. Thay vào đó, luật đã được thống nhất kêu gọi các nhà cung cấp cái gọi là “mô hình nền tảng” hoặc hệ thống AI mạnh mẽ được đào tạo trên lượng lớn dữ liệu, tuân thủ một số yêu cầu nhỏ hơn bao gồm ngăn chặn việc tạo ra nội dung bất hợp pháp, tiết lộ liệu một hệ thống có được đào tạo hay không. trên tài liệu có bản quyền và thực hiện đánh giá rủi ro. Người phát ngôn của công ty nói với TIME rằng OpenAI đã ủng hộ việc giới thiệu muộn "các mô hình nền tảng" như một danh mục riêng biệt trong Đạo luật.
Trong một số trường hợp, OpenAI đã đề xuất các sửa đổi mà sau đó đã được thực hiện đối với văn bản cuối cùng của E.U. luật—đã được Nghị viện Châu Âu thông qua vào ngày 14 tháng 6 và hiện sẽ tiến hành vòng đàm phán cuối cùng trước khi được hoàn thiện ngay sau tháng Giêng.
Vào năm 2022, OpenAI đã nhiều lần tranh luận với các quan chức châu Âu rằng Đạo luật AI sắp tới không nên coi các hệ thống AI có mục đích chung của nó—bao gồm GPT-3, tiền thân của ChatGPT và trình tạo hình ảnh Dall-E 2—là “rủi ro cao”, một chỉ định sẽ khiến họ phải tuân theo các yêu cầu pháp lý nghiêm ngặt bao gồm tính minh bạch, khả năng truy xuất nguồn gốc và sự giám sát của con người.
Lập luận đó đã đưa OpenAI phù hợp với Microsoft, công ty đã đầu tư 13 tỷ đô la vào phòng thí nghiệm AI và Google, cả hai trước đây đã vận động hành lang E.U. các quan chức ủng hộ việc nới lỏng gánh nặng pháp lý của Đạo luật đối với các nhà cung cấp AI lớn. Cả hai công ty đều lập luận rằng gánh nặng tuân thủ các yêu cầu nghiêm ngặt nhất của Đạo luật phải thuộc về các công ty đặt mục tiêu rõ ràng là áp dụng AI cho trường hợp sử dụng có rủi ro cao—chứ không phải các công ty (thường lớn hơn) xây dựng các hệ thống AI có mục đích chung.
“Bản thân GPT-3 không phải là một hệ thống có rủi ro cao,” OpenAI cho biết trong một tài liệu dài bảy trang chưa được công bố trước đây mà nó gửi tới E.U. các quan chức của Ủy ban và Hội đồng vào tháng 9 năm 2022, có tiêu đề Sách trắng OpenAI về Đạo luật Trí tuệ Nhân tạo của Liên minh Châu Âu. “Nhưng [nó] sở hữu các khả năng có khả năng được sử dụng trong các trường hợp sử dụng có rủi ro cao.”
TIME đang xuất bản Sách Trắng đầy đủ cùng với câu chuyện này.
Những nỗ lực vận động hành lang này của OpenAI ở châu Âu trước đây chưa được báo cáo, mặc dù Altman gần đây đã lên tiếng nhiều hơn về luật pháp. Vào tháng 5, anh ấy nói với các phóng viên ở London rằng OpenAI có thể quyết định “ngừng hoạt động” ở châu Âu nếu họ cho rằng mình không thể tuân thủ quy định, theo đó anh ấy nói rằng anh ấy đã nhận “rất nhiều” lời chỉ trích. Sau đó, anh ấy đã rút lại lời cảnh báo, nói rằng công ty của anh ấy không có kế hoạch rời đi và có ý định hợp tác với E.U.
Tuy nhiên, nỗ lực vận động hành lang của OpenAI dường như đã thành công: dự thảo cuối cùng của Đạo luật đã được E.U. các nhà lập pháp không chứa từ ngữ có trong các bản dự thảo trước đó cho thấy rằng các hệ thống AI có mục đích chung nên được coi là rủi ro cao vốn có. Thay vào đó, luật đã được thống nhất kêu gọi các nhà cung cấp cái gọi là “mô hình nền tảng” hoặc hệ thống AI mạnh mẽ được đào tạo trên lượng lớn dữ liệu, tuân thủ một số yêu cầu nhỏ hơn bao gồm ngăn chặn việc tạo ra nội dung bất hợp pháp, tiết lộ liệu một hệ thống có được đào tạo hay không. trên tài liệu có bản quyền và thực hiện đánh giá rủi ro. Người phát ngôn của công ty nói với TIME rằng OpenAI đã ủng hộ việc giới thiệu muộn "các mô hình nền tảng" như một danh mục riêng biệt trong Đạo luật.