Các chuyên gia và CEO hàng đầu thế giới về AI cảnh báo “nguy cơ tuyệt chủng” trong tuyên bố chỉ vẻn vẹn 22 từ

TienCM

Pearl
Một nhóm các nhà nghiên cứu, kỹ sư và CEO hàng đầu về AI đã đưa ra cảnh báo mới về mối đe dọa hiện hữu mà họ tin rằng AI sẽ gây ra cho nhân loại.
Tuyên bố dài 22 từ, được cắt ngắn để có thể chấp nhận rộng rãi nhất có thể, có nội dung như sau: “Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô khác như đại dịch và chiến tranh hạt nhân”.
Các chuyên gia và CEO hàng đầu thế giới về AI cảnh báo “nguy cơ tuyệt chủng” trong tuyên bố chỉ vẻn vẹn 22 từ
Tuyên bố này, được xuất bản bởi một tổ chức phi lợi nhuận có trụ sở tại San Francisco, gọi là Trung tâm An toàn AI, đã được đồng ký bởi các nhân vật bao gồm Giám đốc điều hành Google DeepMind Demis Hassabis và Giám đốc điều hành OpenAI Sam Altman, cũng như Geoffrey Hinton và Yoshua Bengio - hai trong số ba nhà nghiên cứu AI đã giành được Giải thưởng Turing 2018 (đôi khi được gọi là “Giải Nobel điện toán”) cho công trình của họ về AI. Tại thời điểm viết bài, người chiến thắng thứ ba của năm, Yann LeCun, hiện là nhà khoa học AI hàng đầu tại công ty mẹ của Facebook, Meta, vẫn chưa ký.
Tuyên bố này là sự can thiệp cấp cao mới nhất trong cuộc tranh luận phức tạp và gây tranh cãi về sự an toàn của AI. Đầu năm nay, một bức thư ngỏ được ký bởi một số cá nhân ủng hộ cảnh báo dài 22 từ đã kêu gọi “tạm dừng” phát triển AI trong sáu tháng. Bức thư đã bị chỉ trích ở nhiều cấp độ. Một số chuyên gia cho rằng nó đã phóng đại rủi ro do AI gây ra, trong khi những người khác đồng ý với rủi ro nhưng không đồng ý với biện pháp khắc phục được đề xuất trong bức thư.
Dan Hendrycks, giám đốc điều hành của Trung tâm An toàn AI, nói với tờ The New York Times rằng sự ngắn gọn của tuyên bố ngày hôm nay - không đề xuất bất kỳ biện pháp cụ thể nào để giảm thiểu mối đe dọa do AI gây ra - nhằm tránh sự bất đồng như vậy. Hendrycks cho biết: “Chúng tôi không muốn thúc đẩy một danh sách quá lớn gồm 30 biện pháp can thiệp tiềm năng. “Khi điều đó xảy ra, nó sẽ làm loãng thông điệp.”
Hendrycks đã mô tả thông điệp này như một “sự công bố” cho những nhân vật trong ngành đang lo lắng về rủi ro AI. Hendrycks nói với tờ The Times: “Có một quan niệm sai lầm rất phổ biến, ngay cả trong cộng đồng AI, rằng chỉ có một số ít kẻ thất bại. “Nhưng, trên thực tế, nhiều người sẽ bày tỏ mối quan ngại riêng tư về những điều này.”
Những tranh luận về nguy cơ của AI đã diễn ra rất phổ biến trong thời gian gần đây. Nhiều chuyên gia chỉ ra những cải tiến nhanh chóng trong các hệ thống như mô hình ngôn ngữ lớn là bằng chứng về những thành tựu dự kiến trong tương lai về trí thông minh. Họ nói rằng một khi các hệ thống AI đạt đến một mức độ tinh vi nhất định, việc kiểm soát hành động của chúng có thể trở nên bất khả thi.
Nhưng cũng có nhiều người ghi ngờ những dự đoán này. Họ chỉ ra rằng các hệ thống AI không có khả năng xử lý ngay cả những nhiệm vụ tương đối bình thường, chẳng hạn như lái xe ô tô. Bất chấp nhiều năm nỗ lực và hàng tỷ đô la đầu tư vào lĩnh vực nghiên cứu này, những chiếc xe tự lái hoàn toàn vẫn còn lâu mới trở thành hiện thực. Nếu AI không thể xử lý dù chỉ một thách thức này, những người hoài nghi cho rằng, liệu công nghệ này có cơ hội nào sánh kịp với mọi thành tựu khác của con người trong những năm tới?
Trong khi đó, cả những người ủng hộ rủi ro AI và những người hoài nghi đều đồng ý rằng, ngay cả khi không có sự cải thiện về khả năng của chúng, các hệ thống AI ngày nay vẫn gây ra một số mối đe dọa như việc sử dụng chúng cho phép giám sát hàng loạt hay tạo ra thông tin sai lệch.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top