VNR Content
Pearl
Kể từ khi ra mắt, chatbot trí tuệ nhân tạo ChatGPT đã "làm mưa làm gió" trên toàn thế giới. Ở Việt Nam, "ChatGPT" cũng là từ khóa được người Việt tìm kiếm nhiều nhất trong quý đầu năm 2023. Nhưng sự thông minh của ChatGPT, và đằng sau là mô hình đào tạo GPT, đang tạo ra sự tranh cãi gay gắt về việc liệu một thứ như thế này có thể gây nguy hại tới con người hay không.
Thời gian gần đây, hàng loạt những tên tuổi lớn trong làng công nghệ thế giới như CEO SpaceX, Tesla, Twitter Elon Musk, đồng sáng lập Apple Steve Wozniak, các giáo sư hàng đầu về AI như Stuart Russell và Yoshua Bengio đều đã kêu gọi các công ty ngừng đào tạo các hệ thống AI mạnh hơn GPT-4, mô hình ngôn ngữ lớn mới nhất của OpenAI trong ít nhất 6 tháng để tránh "những rủi ro sâu sắc với xã hội và nhân loại". Và mới đây, trên trang cá nhân của mình, CEO Bkav Nguyễn Tử Quảng cũng đã đăng tải trên trang cá nhân của mình những chia sẻ cũng như đồng tình với quan điểm rằng chúng ta nên tạm dừng đào tạo các hệ thống AI mạnh hơn GPT-4. Nguyên văn như sau: "Chúng tôi kêu gọi tất cả các phòng thí nghiệm AI, NGAY LẬP TỨC tạm dừng ít nhất 6 tháng, việc đào tạo các hệ thống AI mạnh hơn GPT-4". Đây là một phần bức thư ngỏ do Viện Nghiên cứu Tương lai, một tổ chức phi lợi nhuận có trụ sở ở Mỹ và Châu Âu đưa ra cuối tuần qua. Mục đích để các chuyên gia tận dụng khoảng thời gian này, đưa ra một BỘ QUY TẮC giúp "Các hệ thống AI mạnh mẽ, chỉ nên được phát triển khi chúng ta tin tưởng rằng, tác động của chúng sẽ TÍCH CỰC và rủi ro của chúng sẽ có thể kiểm soát được" hoặc các chính phủ nên can thiệp đưa ra LỆNH CẤM. Bức thư được các nhân vật tên tuổi làng công nghệ thế giới ký tên ủng hộ. Bao gồm: Yoshua Bengio, Sáng lập, Giám đốc Khoa học tại Mila, viện nghiên cứu hàng đầu về AI, đoạt giải Turing, giáo sư Đại học Montreal Canada. Stuart Russell, Berkeley, Giáo sư Khoa học Máy tính, đồng tác giả cuốn sách giáo khoa nổi tiếng “Trí tuệ nhân tạo: Cách tiếp cận hiện đại". Elon Musk, CEO của SpaceX, Tesla & Twitter Steve Wozniak, đồng sáng lập Apple Các chuyên gia khắp thế giới lập tức tranh luận gay gắt, chia hai phe. Một bên cho rằng như vậy là cường điệu hóa vấn đề, bên khác cho là cần phải làm ngay. Các bạn có suy nghĩ gì ? Còn tôi ĐÃ KÝ TÊN ỦNG HỘ. Lý do như sau. Một hệ thống AI sáng tạo như ChatGPT xuất hiện vừa qua là NGOÀI DỰ ĐOÁN của NHÂN LOẠI. Hầu hết các chuyên gia AI đều nghĩ rằng phải hàng chục năm nữa mới xuất hiện AI có khả năng như vậy. Do đó mà thế giới chưa có đủ sự CHUẨN BỊ sẵn sàng hành lang pháp chế đảm bảo sự phát triển bền vững, PHỤC VỤ NHÂN LOẠI, thay vì phát sinh những rủi ro KHÔNG KIỂM SOÁT ĐƯỢC. Có thể ví như năng lượng hạt nhân có thể dùng cho nhà máy phát điện, nhưng cũng có thể dùng chế tạo bom nguyên tử gây nguy cơ hủy diệt. AI KHÔNG KIỂM SOÁT còn khủng khiếp hơn bom hạt nhân, khi nó giống như một GIỐNG LOÀI mới xâm hại, có thể lan truyền qua không gian mạng với tốc độ ánh sáng, mạnh hơn gấp bội so với tốc độ tên lửa mang đầu đạn hạt nhân. Ở lĩnh vực anh ninh mạng mà tôi đã trải nghiệm, nhiều vụ lây lan virus qua không gian mạng đã rất khó kiểm soát. Vậy nếu một GIỐNG LOÀI ngoại lai xâm hại thay vào đó thì thật không tưởng tượng nổi. Chúc các bạn ngày mới làm việc hiệu quả !
Ông Nguyễn Tử Quảng là một trong những người tiên phong tại Việt Nam trong việc ứng dụng trí tuệ nhân tạo, tiêu biểu như công nghệ nhiếp ảnh điện toán có trên các điện thoại Bphone, hay hệ thống camera AI của Bkav. Trong bài viết, ông Nguyễn Tử Quảng nhấn mạnh những hiểm họa tiềm tàng khi hệ thống AI sáng tạo như ChatGPT không được kiểm soát hợp lý. Theo ông, AI không kiểm soát còn "khủng khiếp hơn bom hạt nhân", "có thể lan truyền qua không gian mạng với tốc độ ánh sáng" và "mạnh hơn gấp bội so với tốc độ tên lửa mang đầu đạn hạt nhân".