Năm thách thức chính để làm cho AI trở nên an toàn

Các chuyên gia về trí tuệ nhân tạo thường theo một trong hai trường phái tư tưởng - nó sẽ cải thiện đáng kể cuộc sống của chúng ta hoặc hủy diệt tất cả chúng ta. Và đó là lý do tại sao cuộc tranh luận tại Nghị viện Châu Âu tuần này về cách thức quản lý công nghệ lại quan trọng đến vậy. Nhưng làm thế nào AI có thể được làm cho an toàn? Dưới đây là năm trong số những thách thức phía trước.

Đồng ý trí tuệ nhân tạo là gì​

Nghị viện Châu Âu đã mất hai năm để đưa ra định nghĩa về hệ thống AI - phần mềm có thể "đối với một tập hợp các mục tiêu do con người xác định nhất định, tạo ra các đầu ra như nội dung, dự đoán, đề xuất hoặc quyết định ảnh hưởng đến môi trường mà chúng tương tác" .
Tuần này, nó đang bỏ phiếu cho Đạo luật Trí tuệ Nhân tạo - quy tắc pháp lý đầu tiên thuộc loại này về AI, vượt ra ngoài các mã tự nguyện và yêu cầu các công ty phải tuân thủ.

Đạt được thỏa thuận toàn cầu​

Năm thách thức chính để làm cho AI trở nên an toàn
Cựu Giám đốc Văn phòng Trí tuệ Nhân tạo Vương quốc Anh Sana Kharaghani chỉ ra rằng công nghệ này không tôn trọng biên giới.
"Chúng tôi cần có sự hợp tác quốc tế về vấn đề này - tôi biết sẽ rất khó khăn," cô nói với BBC News. "Đây không phải là vấn đề trong nước. Những công nghệ này không nằm trong ranh giới của một quốc gia
Nhưng vẫn chưa có kế hoạch cho một cơ quan quản lý AI toàn cầu, kiểu Liên hợp quốc - mặc dù, một số người đã đề xuất nó - và các lãnh thổ khác nhau có những ý tưởng khác nhau:
- Các đề xuất của Liên minh Châu Âu là nghiêm ngặt nhất và bao gồm việc phân loại các sản phẩm AI tùy thuộc vào tác động của chúng - chẳng hạn như bộ lọc thư rác email sẽ có quy định nhẹ hơn so với công cụ phát hiện ung thư
- Vương quốc Anh đang đưa quy định AI vào các cơ quan quản lý hiện có - chẳng hạn, những người nói rằng công nghệ này đã phân biệt đối xử với họ, sẽ đến Ủy ban Bình đẳng
- Hoa Kỳ chỉ có các mã tự nguyện, với các nhà lập pháp thừa nhận, trong một phiên điều trần gần đây của ủy ban AI, lo ngại về việc liệu họ có phù hợp với công việc hay không
- Trung Quốc dự định khiến các công ty thông báo cho người dùng bất cứ khi nào thuật toán AI đang được sử dụng

Đảm bảo niềm tin của công chúng​

Jean-Marc Leclerc, người đứng đầu chính phủ và các vấn đề pháp lý của Tập đoàn Máy kinh doanh Quốc tế (IBM) cho biết: “Nếu mọi người tin tưởng nó, thì họ sẽ sử dụng nó.
Có rất nhiều cơ hội để AI cải thiện cuộc sống của con người theo những cách đáng kinh ngạc. Nó đã được:
- giúp khám phá kháng sinh
- làm cho người liệt đi lại được
- giải quyết các vấn đề như biến đổi khí hậu và đại dịch
Nhưng còn việc sàng lọc những người xin việc hoặc dự đoán khả năng ai đó phạm tội thì sao?
Nghị viện Châu Âu muốn công chúng được thông báo về những rủi ro gắn liền với từng sản phẩm AI.
Các công ty vi phạm các quy tắc của nó có thể bị phạt hơn 30 triệu euro hoặc 6% doanh thu hàng năm toàn cầu.
Nhưng các nhà phát triển có thể dự đoán hoặc kiểm soát cách sản phẩm của họ có thể được sử dụng không?

Quyết định ai viết các quy tắc​

Cho đến nay, AI chủ yếu là tự kiểm soát.
Theo Sam Altman, ông chủ của OpenAI, người sáng tạo ChatGPT, các công ty lớn nói rằng họ tuân thủ quy định của chính phủ - "quan trọng" để giảm thiểu rủi ro tiềm ẩn.
Nhưng liệu họ có đặt lợi nhuận lên trước mọi người nếu họ tham gia quá nhiều vào việc viết các quy tắc không?
Bạn có thể đặt cược rằng họ muốn càng gần gũi càng tốt với các nhà lập pháp được giao nhiệm vụ đặt ra các quy định.
Và người sáng lập Lastminute.com, Nam tước Lane-Fox, nói rằng điều quan trọng là không chỉ lắng nghe các tập đoàn.
“Chúng ta phải thu hút sự tham gia của xã hội dân sự, giới học thuật, những người bị ảnh hưởng bởi những mô hình và sự biến đổi khác nhau này,” cô nói.

hành động nhanh chóng​

Microsoft, công ty đã đầu tư hàng tỷ đô la vào ChatGPT, muốn nó "loại bỏ công việc cực nhọc".
Ông Altman chỉ ra rằng nó có thể tạo ra các câu trả lời bằng văn xuôi và văn bản giống như con người, nhưng nó là "một công cụ, không phải một sinh vật".
Chatbots được cho là giúp người lao động làm việc hiệu quả hơn.
Và trong một số ngành, AI có khả năng tạo việc làm và trở thành một trợ thủ đắc lực.
Nhưng những người khác đã mất chúng - tháng trước, BT đã thông báo AI sẽ thay thế 10.000 việc làm.
ChatGPT đã được đưa vào sử dụng công khai chỉ hơn sáu tháng trước.
Giờ đây, nó có thể viết luận, lên kế hoạch cho các kỳ nghỉ của mọi người và vượt qua các kỳ thi chuyên nghiệp.
Khả năng của các mô hình ngôn ngữ quy mô lớn này đang phát triển với tốc độ phi thường.
Và hai trong số ba "bố già" AI - Geoffrey Hinton và Giáo sư Yoshua Bengio - nằm trong số những người cảnh báo công nghệ này có khả năng gây hại rất lớn.
Giám đốc công nghệ EU Margrethe Vestager cho biết Đạo luật Trí tuệ Nhân tạo sẽ không có hiệu lực cho đến ít nhất là năm 2025 - "quá muộn".
Cô ấy đang soạn thảo một bộ luật tự nguyện tạm thời cho lĩnh vực này, cùng với Hoa Kỳ, có thể sẵn sàng trong vòng vài tuần.
Bài viết gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top