Úc xem xét lệnh cấm sử dụng AI 'rủi ro cao' như deepfakes và thuật toán thiên lệch

Chính phủ Úc đang xem xét lệnh cấm sử dụng trí tuệ nhân tạo và ra quyết định tự động ở mức “rủi ro cao”, đồng thời cảnh báo về những tác hại tiềm ẩn bao gồm việc tạo ra deepfakes và thuật toán sai lệch.
Vào thứ Năm, Bộ trưởng Bộ Khoa học và Công nghiệp, Ed Husic, sẽ công bố báo cáo về các công nghệ mới nổi của Hội đồng Khoa học và Công nghệ Quốc gia và một bài thảo luận về cách đạt được AI “an toàn và có trách nhiệm”.
Úc xem xét lệnh cấm sử dụng AI 'rủi ro cao' như deepfakes và thuật toán thiên lệch
Trí tuệ nhân tạo sáng tạo, trong đó trí tuệ nhân tạo tạo ra nội dung mới như văn bản, hình ảnh, âm thanh và mã, đã trải qua một đợt tăng đột biến chẳng hạn như thông qua các chương trình “mô hình ngôn ngữ lớn” ChatGPT, chatbot Bard của Google và tính năng trò chuyện của Microsoft Bing.
Trong khi các trường đại học và cơ quan giáo dục vật lộn với ứng dụng của công nghệ mới trong gian lận của sinh viên, tài liệu thảo luận của bộ công nghiệp cảnh báo AI có một loạt “mục đích có thể gây hại”.
Chúng bao gồm “tạo ra deepfakes để tác động đến các quy trình dân chủ hoặc gây ra sự lừa dối khác, tạo ra thông tin sai lệch và thông tin sai lệch, [và] khuyến khích mọi người tự làm hại bản thân”.
Nó cho biết: “Sự thiên vị trong thuật toán thường được coi là một trong những rủi ro hoặc mối nguy hiểm lớn nhất của AI”, với khả năng ưu tiên nam hơn ứng viên nữ trong tuyển dụng hoặc nhắm mục tiêu vào các nhóm chủng tộc thiểu số.
Bài báo cũng ghi nhận những ứng dụng tích cực của AI đã và đang được sử dụng như phân tích hình ảnh y tế, cải thiện an toàn tòa nhà và tiết kiệm chi phí cung cấp dịch vụ pháp lý. Ý nghĩa của AI đối với thị trường lao động, an ninh quốc gia và sở hữu trí tuệ nằm ngoài phạm vi của nó.
Báo cáo của NSTC cho thấy rằng “việc tập trung các nguồn tài nguyên AI tổng hợp trong một số ít các công ty công nghệ đa quốc gia lớn và chủ yếu có trụ sở tại Hoa Kỳ gây ra những rủi ro tiềm ẩn đối với Úc”.
Mặc dù Úc có một số lợi thế về thị giác máy tính và người máy, nhưng “năng lực cơ bản cốt lõi của họ trong [mô hình ngôn ngữ lớn] và các lĩnh vực liên quan tương đối yếu” do “rào cản tiếp cận cao”.
Bài báo đưa ra một loạt các phản hồi từ khắp nơi trên thế giới: từ cách tiếp cận tự nguyện ở Singapore đến quy định chặt chẽ hơn ở EU và Canada.
“Có một hướng quốc tế đang phát triển đối với cách tiếp cận dựa trên rủi ro để quản trị AI”, trích bài báo.
Tờ báo cho biết chính phủ sẽ “đảm bảo có các biện pháp bảo vệ thích hợp, đặc biệt là đối với các ứng dụng AI có rủi ro cao và [ra quyết định tự động]”.
Trong một cuộc tham vấn nhanh kéo dài 8 tuần, bài báo đã hỏi các bên liên quan “liệu có nên cấm hoàn toàn bất kỳ ứng dụng hoặc công nghệ AI có rủi ro cao nào không” và nếu vậy, tiêu chí nào nên được áp dụng để cấm chúng.
Nhưng bài báo lưu ý rằng Úc có thể cần phải hài hòa hóa việc quản trị của mình với các đối tác thương mại lớn để tận dụng “lợi thế của các hệ thống hỗ trợ AI được cung cấp trên quy mô toàn cầu và thúc đẩy sự phát triển của AI ở Úc”.
Bài báo yêu cầu các bên liên quan xem xét “tác động đối với lĩnh vực công nghệ trong nước của Úc và các hoạt động thương mại và xuất khẩu hiện tại của chúng tôi với các quốc gia khác nếu chúng tôi thực hiện một cách tiếp cận nghiêm ngặt hơn để cấm một số hoạt động có rủi ro cao”.
Husic cho biết “việc sử dụng AI một cách an toàn và có trách nhiệm là một hành động cân bằng mà cả thế giới đang phải vật lộn vào lúc này”.
Bài viết gốc gần đây.

>> Các biện pháp bảo mật ChatGPT và các phương pháp hay nhất

 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top