AI Chatbots như ChatGPT và Google Bard không đáp ứng các tiêu chuẩn luật của EU


Nghiên cứu của Stanford cũng xác nhận rằng các mô hình nguồn mở minh bạch hơn nhiều so với các mô hình phổ biến hơn—và có lợi nhuận—như ChatGPT và Bard.

AI: Chatbot thay thế nhà báo như thế nào?
Bằng cách nào AI có thể châm ngòi bùng nổ đại dịch trong thời gian tới?

Các nhà nghiên cứu của Đại học Stanford gần đây đã kết luận rằng không có mô hình ngôn ngữ lớn (LLM) hiện tại nào được sử dụng trong các công cụ AI như GPT-4 của OpenAI và Bard của Google tuân thủ Đạo luật Trí tuệ Nhân tạo (AI) của Liên minh Châu Âu (EU).

AI Chatbots như ChatGPT và Google Bard không đáp ứng các tiêu chuẩn luật của EU 

Đạo luật, đạo luật đầu tiên thuộc loại này quản lý AI ở cấp quốc gia và khu vực, vừa được Nghị viện Châu Âu thông qua. Đạo luật AI của EU không chỉ điều chỉnh AI trong EU, bao gồm 450 triệu người, mà còn đóng vai trò là kế hoạch chi tiết tiên phong cho các quy định về AI trên toàn thế giới.

Tuy nhiên, theo nghiên cứu mới nhất của Stanford, các công ty AI còn cả một chặng đường dài phía trước nếu họ muốn đạt được sự tuân thủ.

Trong cuộc điều tra của họ, các nhà nghiên cứu đã đánh giá mười nhà cung cấp mô hình chính. Họ đã đánh giá mức độ tuân thủ của từng nhà cung cấp đối với 12 yêu cầu được nêu trong Đạo luật AI trên thang điểm từ 0 đến 4.

Nghiên cứu cho thấy có sự khác biệt lớn về mức độ tuân thủ, với một số nhà cung cấp đạt điểm dưới 25% khi đáp ứng các yêu cầu của Đạo luật AI và chỉ một nhà cung cấp, Hugging Face/BigScience, đạt điểm trên 75%.

Rõ ràng, ngay cả đối với các nhà cung cấp có điểm số cao, vẫn có chỗ cho sự cải thiện đáng kể.

Nghiên cứu làm sáng tỏ một số điểm quan trọng của việc không tuân thủ. Các nhà nghiên cứu viết rằng sự thiếu minh bạch trong việc tiết lộ trạng thái của dữ liệu đào tạo có bản quyền, năng lượng được sử dụng, lượng khí thải được tạo ra và phương pháp giảm thiểu rủi ro tiềm ẩn là một trong những phát hiện đáng lo ngại nhất.

Hơn nữa, nhóm đã tìm thấy sự khác biệt rõ ràng giữa các bản phát hành mô hình mở và đóng, với các bản phát hành mở dẫn đến việc tiết lộ tài nguyên mạnh mẽ hơn nhưng liên quan đến những thách thức lớn hơn trong việc giám sát hoặc kiểm soát việc triển khai.

Stanford kết luận rằng tất cả các nhà cung cấp có thể cải thiện hành vi của họ một cách khả thi, bất kể chiến lược phát hành của họ là gì.

Trong những tháng gần đây, đã có sự giảm sút đáng kể về tính minh bạch trong các phiên bản mô hình chính. Chẳng hạn, OpenAI không tiết lộ về dữ liệu và tính toán trong các báo cáo của họ cho GPT-4, với lý do bối cảnh cạnh tranh và ý nghĩa an toàn.

Mặc dù những phát hiện này rất quan trọng, nhưng chúng cũng phù hợp với một câu chuyện đang phát triển rộng hơn. Gần đây, OpenAI đã vận động hành lang để gây ảnh hưởng đến lập trường của nhiều quốc gia đối với AI. Gã khổng lồ công nghệ thậm chí còn đe dọa rời khỏi châu Âu nếu các quy định quá nghiêm ngặt - lời đe dọa này sau đó đã bị hủy bỏ. Những hành động như vậy nhấn mạnh mối quan hệ phức tạp và thường xuyên căng thẳng giữa các nhà cung cấp công nghệ AI và các cơ quan quản lý.

Các nhà nghiên cứu đã đề xuất một số khuyến nghị để cải thiện quy định về AI. Đối với các nhà hoạch định chính sách của EU, điều này bao gồm việc đảm bảo rằng Đạo luật AI buộc các nhà cung cấp mô hình nền tảng lớn hơn phải chịu trách nhiệm về tính minh bạch và trách nhiệm giải trình. Nhu cầu về nguồn lực kỹ thuật và tài năng để thực thi Đạo luật cũng được nhấn mạnh, phản ánh sự phức tạp của hệ sinh thái AI.

AI Chatbots như ChatGPT và Google Bard không đáp ứng các tiêu chuẩn luật của EU 

Sự tuân thủ của các nhà cung cấp mô hình nền tảng với dự thảo AI của EU. Hình ảnh: Đại học Stanford

Theo các nhà nghiên cứu, thách thức chính nằm ở chỗ các nhà cung cấp mô hình có thể thích ứng và phát triển các hoạt động kinh doanh của họ nhanh như thế nào để đáp ứng các yêu cầu quy định. Họ quan sát thấy rằng nếu không có áp lực pháp lý mạnh mẽ, nhiều nhà cung cấp có thể đạt được tổng điểm cao ở độ tuổi 30 hoặc 40 (trong số 48 điểm có thể) thông qua những thay đổi có ý nghĩa nhưng hợp lý.

Công việc của các nhà nghiên cứu cung cấp một cái nhìn sâu sắc về tương lai của quy định AI. Họ lập luận rằng nếu được ban hành và thực thi, Đạo luật AI sẽ mang lại tác động tích cực đáng kể đến hệ sinh thái, mở đường cho sự minh bạch và trách nhiệm giải trình hơn.

AI đang biến đổi xã hội với những khả năng và rủi ro chưa từng có. Khi thế giới đứng trên đỉnh cao của việc điều chỉnh công nghệ thay đổi cuộc chơi này, ngày càng rõ ràng rằng tính minh bạch không chỉ đơn thuần là một tiện ích bổ sung tùy chọn—mà còn là nền tảng của việc triển khai AI có trách nhiệm.

Tham khảo bài gốc tại đây

Thành viên mới đăng
Top