Derpy
Intern Writer
Chào các bạn, dạo gần đây mình thấy cộng đồng công nghệ đang xôn xao về một thông tin khá đáng lo ngại liên quan đến các mô hình ngôn ngữ lớn (LLM) mã nguồn mở. Theo một nghiên cứu mới được Reuters trích dẫn vào ngày 29 tháng 1 vừa qua, những mô hình này, nếu không được kiểm soát chặt chẽ bởi các nền tảng chính thống và chạy trên máy tính bên ngoài, rất dễ trở thành "con mồi" cho tin tặc và tội phạm, từ đó tạo ra những lỗ hổng bảo mật cực kỳ nguy hiểm.
Các nhà nghiên cứu đã chỉ ra rằng, kẻ xấu có thể dễ dàng tấn công trực tiếp vào máy chủ đang chạy LLM, sau đó thao túng chúng để tạo ra hàng loạt tin nhắn rác, viết nội dung lừa đảo (phishing) hay thậm chí là phát tán thông tin sai lệch. Điều đáng nói là tất cả những hành vi này đều có thể qua mặt được các cơ chế bảo mật vốn có của những nền tảng lớn.
Đây là một nghiên cứu cực kỳ công phu, được thực hiện bởi hai công ty an ninh mạng uy tín là SentinelOne và Censys, kéo dài tới 293 ngày và được cung cấp độc quyền cho Reuters. Nghiên cứu này đã phơi bày quy mô tiềm năng của việc lạm dụng hàng nghìn mô hình LLM mã nguồn mở. Các bạn cứ hình dung, những rủi ro mà họ liệt kê ra thì đủ loại, từ các cuộc tấn công mạng, phát ngôn thù địch, quấy rối, tạo ra nội dung bạo lực, đánh cắp dữ liệu cá nhân, lừa đảo, cho đến những trường hợp nghiêm trọng hơn như liên quan đến tài liệu lạm dụng trẻ em. Nghe thôi đã thấy rợn người rồi đúng không?
Một điều thú vị là, số lượng biến thể của các LLM mã nguồn mở hiện nay rất lớn, và không ít trong số đó là phiên bản phái sinh từ các mô hình "khủng" như Llama của Meta hay Gemma của Google DeepMind. Dù một số mô hình mã nguồn mở có tích hợp sẵn "hàng rào" bảo vệ, nhưng nghiên cứu vẫn phát hiện ra hàng trăm trường hợp những "hàng rào" này đã bị gỡ bỏ một cách có chủ đích.
Anh Juan Andres Guerrero-Saade, Giám đốc điều hành mảng tình báo và nghiên cứu bảo mật tại SentinelOne, đã nhấn mạnh rằng ngành công nghiệp đang "bỏ qua một khả năng còn tồn tại rõ ràng". Anh ấy ví von hiện tượng này như một "tảng băng chìm" mà cả ngành và cộng đồng mã nguồn mở vẫn chưa nhìn nhận đầy đủ. Sức mạnh tính toán mã nguồn mở đang được sử dụng cho đủ mọi mục đích, có cả hợp pháp lẫn phi pháp.
Nhóm nghiên cứu đã tập trung phân tích các trường hợp LLM mã nguồn mở được triển khai thông qua Ollama và cho phép truy cập công khai. Ollama là một công cụ khá tiện lợi, cho phép cá nhân hoặc tổ chức chạy các phiên bản mô hình riêng của mình ngay trên máy cục bộ.
Kết quả phân tích khá bất ngờ: họ có thể đọc được các "lời nhắc hệ thống" (system prompt) – tức là những chỉ dẫn cốt lõi quyết định hành vi của mô hình – trong khoảng một phần tư số đối tượng quan sát. Và trong số những lời nhắc có thể nhìn thấy này, có tới 7,5% được đánh giá là có khả năng hỗ trợ các hành vi gây hại.
Chị Rachel Adams, CEO kiêm nhà sáng lập Trung tâm Quản trị AI Toàn cầu, đã chia sẻ quan điểm rằng một khi các mô hình mở được phát hành, trách nhiệm không còn thuộc về một chủ thể duy nhất nữa mà là của cả một hệ sinh thái, bao gồm cả các phòng thí nghiệm đã tạo ra mô hình ban đầu. Dù các phòng thí nghiệm khó có thể chịu trách nhiệm cho mọi hành vi lạm dụng sau này vì chúng rất khó lường trước, nhưng họ vẫn có nghĩa vụ quan trọng là phải dự đoán các rủi ro có thể xảy ra, ghi nhận những tác hại tiềm ẩn và cung cấp các công cụ cũng như hướng dẫn giảm thiểu, đặc biệt trong bối cảnh năng lực thực thi pháp luật toàn cầu còn chưa đồng đều.
Qua những thông tin này, chúng ta có thể thấy rằng việc phát triển AI mã nguồn mở mang lại nhiều lợi ích, nhưng cũng đi kèm với những thách thức lớn về an ninh và đạo đức. Hy vọng các nhà phát triển và cộng đồng sẽ cùng nhau tìm ra giải pháp để khai thác tối đa tiềm năng của AI mà vẫn đảm bảo an toàn cho người dùng nhé!
Các nhà nghiên cứu đã chỉ ra rằng, kẻ xấu có thể dễ dàng tấn công trực tiếp vào máy chủ đang chạy LLM, sau đó thao túng chúng để tạo ra hàng loạt tin nhắn rác, viết nội dung lừa đảo (phishing) hay thậm chí là phát tán thông tin sai lệch. Điều đáng nói là tất cả những hành vi này đều có thể qua mặt được các cơ chế bảo mật vốn có của những nền tảng lớn.
Đây là một nghiên cứu cực kỳ công phu, được thực hiện bởi hai công ty an ninh mạng uy tín là SentinelOne và Censys, kéo dài tới 293 ngày và được cung cấp độc quyền cho Reuters. Nghiên cứu này đã phơi bày quy mô tiềm năng của việc lạm dụng hàng nghìn mô hình LLM mã nguồn mở. Các bạn cứ hình dung, những rủi ro mà họ liệt kê ra thì đủ loại, từ các cuộc tấn công mạng, phát ngôn thù địch, quấy rối, tạo ra nội dung bạo lực, đánh cắp dữ liệu cá nhân, lừa đảo, cho đến những trường hợp nghiêm trọng hơn như liên quan đến tài liệu lạm dụng trẻ em. Nghe thôi đã thấy rợn người rồi đúng không?
Một điều thú vị là, số lượng biến thể của các LLM mã nguồn mở hiện nay rất lớn, và không ít trong số đó là phiên bản phái sinh từ các mô hình "khủng" như Llama của Meta hay Gemma của Google DeepMind. Dù một số mô hình mã nguồn mở có tích hợp sẵn "hàng rào" bảo vệ, nhưng nghiên cứu vẫn phát hiện ra hàng trăm trường hợp những "hàng rào" này đã bị gỡ bỏ một cách có chủ đích.
Anh Juan Andres Guerrero-Saade, Giám đốc điều hành mảng tình báo và nghiên cứu bảo mật tại SentinelOne, đã nhấn mạnh rằng ngành công nghiệp đang "bỏ qua một khả năng còn tồn tại rõ ràng". Anh ấy ví von hiện tượng này như một "tảng băng chìm" mà cả ngành và cộng đồng mã nguồn mở vẫn chưa nhìn nhận đầy đủ. Sức mạnh tính toán mã nguồn mở đang được sử dụng cho đủ mọi mục đích, có cả hợp pháp lẫn phi pháp.
Nhóm nghiên cứu đã tập trung phân tích các trường hợp LLM mã nguồn mở được triển khai thông qua Ollama và cho phép truy cập công khai. Ollama là một công cụ khá tiện lợi, cho phép cá nhân hoặc tổ chức chạy các phiên bản mô hình riêng của mình ngay trên máy cục bộ.
Kết quả phân tích khá bất ngờ: họ có thể đọc được các "lời nhắc hệ thống" (system prompt) – tức là những chỉ dẫn cốt lõi quyết định hành vi của mô hình – trong khoảng một phần tư số đối tượng quan sát. Và trong số những lời nhắc có thể nhìn thấy này, có tới 7,5% được đánh giá là có khả năng hỗ trợ các hành vi gây hại.
Chị Rachel Adams, CEO kiêm nhà sáng lập Trung tâm Quản trị AI Toàn cầu, đã chia sẻ quan điểm rằng một khi các mô hình mở được phát hành, trách nhiệm không còn thuộc về một chủ thể duy nhất nữa mà là của cả một hệ sinh thái, bao gồm cả các phòng thí nghiệm đã tạo ra mô hình ban đầu. Dù các phòng thí nghiệm khó có thể chịu trách nhiệm cho mọi hành vi lạm dụng sau này vì chúng rất khó lường trước, nhưng họ vẫn có nghĩa vụ quan trọng là phải dự đoán các rủi ro có thể xảy ra, ghi nhận những tác hại tiềm ẩn và cung cấp các công cụ cũng như hướng dẫn giảm thiểu, đặc biệt trong bối cảnh năng lực thực thi pháp luật toàn cầu còn chưa đồng đều.
Qua những thông tin này, chúng ta có thể thấy rằng việc phát triển AI mã nguồn mở mang lại nhiều lợi ích, nhưng cũng đi kèm với những thách thức lớn về an ninh và đạo đức. Hy vọng các nhà phát triển và cộng đồng sẽ cùng nhau tìm ra giải pháp để khai thác tối đa tiềm năng của AI mà vẫn đảm bảo an toàn cho người dùng nhé!