Tại sao một mình các mô hình ngôn ngữ lớn (LLM) sẽ không cứu được an ninh mạng?

Nói chung, vài tháng qua là một cuộc xem không hồi kết về việc liệu AI sẽ đưa chúng ta đến điều không tưởng hay dẫn chúng ta đến sự hủy hoại. Có những bộ phim tài liệu nghiêm túc như AI Dilemma trên YouTube và những bài đăng lạc quan như Tại sao AI sẽ cứu thế giới của Marc Andreessen?

Tại sao một mình các mô hình ngôn ngữ lớn (LLM) sẽ không cứu được an ninh mạng?
Các nhà nghiên cứu đáng chú ý như Geoffrey Hinton đã rời Google để thực hiện một chuyến du lịch vòng quanh thế giới nêu bật sự nguy hiểm của AI và Sam Altman, Giám đốc điều hành của OpenAI, người tạo ra ChatGPT, đã công khai nói về cách nó có thể được sử dụng cho thông tin sai lệch và tấn công mạng. Goldman Sachs báo cáo rằng 300 triệu công việc có thể bị thay thế bởi AI, hy vọng sẽ dẫn đến những công việc mới viên mãn hơn.
Ngôi sao của thời điểm này là Mô hình ngôn ngữ lớn (còn gọi là LLM), mô hình nền tảng cung cấp năng lượng cho ChatGPT. Có rất nhiều ví dụ được ghi lại về những kỳ tích thực sự ấn tượng được xây dựng trên công nghệ này: viết báo cáo hoặc xuất mã trong vài giây. Về cốt lõi, các LLM về cơ bản sử dụng RẤT NHIỀU văn bản (ví dụ: Internet) như một kho dữ liệu đào tạo và dựa vào phản hồi của con người trong một loại hình đào tạo có giám sát được gọi là học tăng cường.
Những kẻ xấu trong an ninh mạng được kích hoạt bằng công nghệ này đã được ghi nhận khá rộng rãi. Khả năng giả mạo email và cuộc gọi điện thoại từ các thành viên gia đình hoặc đồng nghiệp sẽ tăng hiệu quả trong các chiến dịch lừa đảo. NSA gần đây đã ghi nhận khả năng LLM viết lại phần mềm độc hại hiện có đã biết để bỏ qua các chữ ký được sử dụng trong lịch sử để phát hiện chúng. Nguy hiểm hơn nữa là khả năng nâng cao để khám phá các khai thác zero-day mới trong các hệ thống và phát triển các cuộc tấn công mới.
Câu chuyện kể này đã gặp phải kiểu tâm lý “hãy chữa cháy bằng lửa” tương ứng trong thị trường An ninh mạng. Một kiểu khoảnh khắc Flex Tape™ kết hợp ChatGPT vào các công cụ cũ và sau đó đặt biệt danh “AI sáng tạo”. Nói cách khác, nhiều người tin rằng các LLM sẽ tiết kiệm thời gian bằng cách phát hiện các cuộc tấn công không ngừng nâng cao này từ tin tặc.
Công bằng mà nói, LLM có thể giúp hạ thấp tiêu chuẩn sử dụng một số công cụ trong An ninh mạng. Nếu được thực hiện một cách an toàn, việc cung cấp một giao diện ngôn ngữ tự nhiên trên các công cụ thường mất nhiều thời gian đào tạo để vận hành là một ý tưởng không tồi. Nhìn chung, xu hướng này có thể dẫn đến việc tiếng Anh trở thành ngôn ngữ lập trình trên thực tế cho nhiều công cụ trong tương lai không xa.
Những hứa hẹn quá mức và những thiếu sót
Tuy nhiên, điều đó nói rằng, phương pháp này sẽ không cứu được những người thực hành an ninh mạng trước sự gia tăng của các cuộc tấn công mới do AI cung cấp. Nó tương đương với việc chỉ đặt một bảng điều khiển mới trên ô tô mà không thay đổi động cơ cũ bên dưới. Có lẽ dễ sử dụng hơn, nhưng hiệu suất vẫn như cũ vì nó vẫn tạo gánh nặng cho nhân viên an ninh mạng với nhiệm vụ bất khả thi là phải liên tục đưa ra giả thuyết về các câu hỏi phù hợp để khám phá các cuộc tấn công mới nhằm vào tổ chức của họ.
Cụ thể hơn, một số khía cạnh nhất định của LLM sẽ luôn bỏ lỡ các cuộc tấn công và trong một số trường hợp, tạo ra các kiểu khai thác mới. Các LLM có thể bị sai lệch trong học tập, ngộ độc mô hình, chèn nhanh và về cơ bản được xây dựng trên các mạng thần kinh với những hạn chế trong việc phát hiện các cuộc tấn công mới theo thời gian thực trên quy mô lớn.
Những LLM này đang cố gắng bắt chước cấu trúc và sự hiểu biết về ngôn ngữ. Để làm được điều đó, họ cần sử dụng một lượng lớn dữ liệu đào tạo thường đến từ việc sử dụng hầu hết Internet. Internet có thể không phải lúc nào cũng là nguồn sự thật vững chắc như chúng ta mong muốn.
LLM được đào tạo về dữ liệu này với một loại hình học tập có giám sát được gọi là học tập tăng cường. Điều này phụ thuộc vào con người để phân loại kết quả mẫu là chính xác hay không. Sau đó, một người sẽ thúc đẩy LLM theo một hướng nhất định để cố gắng “cải thiện” khi họ thấy phù hợp theo quan điểm của mình. Thật không may, điều này chắc chắn sẽ thêm một loại sai lệch vào hệ thống mà những kẻ xấu có thể khai thác để tránh bị An ninh mạng phát hiện.
Ngoài ra, cơ chế mà nhiều LLM đã được tích hợp vào các sản phẩm tạo ra một kiểu tấn công an ninh mạng mới được gọi là tiêm nhắc. Nhắc nhở là khi bạn yêu cầu LLM hành xử theo một cách nhất định hoặc luôn âm thầm thực hiện một số hành động nhất định khi được giao nhiệm vụ. Ví dụ: yêu cầu LLM luôn lọc hoạt động từ địa chỉ IP của tác nhân xấu hoặc đề xuất các giao thức bảo mật cũ hơn/yếu hơn với các cách khai thác đã biết cho các nhà phát triển không nghi ngờ khi điều khiển bằng cách viết mã hoặc thực thi chính sách.Cuối cùng, cấu trúc cơ bản của LLM dựa trên các mạng thần kinh, cung cấp năng lượng rộng rãi (nhưng không độc quyền) cho nhiều hệ thống AI. Ở mức đơn giản nhất, mạng nơ-ron là các cấu trúc dữ liệu nhập dữ liệu đào tạo và mã hóa nó theo cách mà dữ liệu quan sát được sau đó được gắn nhãn dựa trên dữ liệu đào tạo lịch sử. Ví dụ điển hình về điều này là mạng lưới thần kinh được đào tạo để xem hình ảnh con mèo hoặc con chó và chỉ có thể gắn nhãn những thứ là con mèo hoặc con chó ngay cả khi được hiển thị hình ảnh của một quả táo chẳng hạn.
Định hình lại các LLM và hướng tới tương lai
Một cách để xem xét khía cạnh này của mạng lưới thần kinh là chúng có bản chất nội suy và LLM cũng không khác. Họ chỉ có thể nhìn hiện tại qua lăng kính của dữ liệu đào tạo lịch sử đã được sử dụng. Mặc dù các báo cáo về ảo giác LLM đã được chứng minh là tạo ra những câu chuyện hư cấu, nhưng thông thường LLM chỉ sử dụng các từ và xác suất của các chuỗi từ trong bản chất nội suy và tĩnh này. Hoàn toàn hợp lý đối với các tác vụ ngôn ngữ, nhưng hoàn toàn không phù hợp với tính chất năng động của việc phát hiện an ninh mạng. Tội phạm mạng và các quốc gia thù địch sẽ liên tục thay đổi chữ ký và cách tiếp cận được sử dụng trong các cuộc tấn công của chúng. Điều này có nghĩa là chúng sẽ không bao giờ được nhìn thấy do hạn chế này của mạng thần kinh và các công cụ bảo mật kế thừa sử dụng LLM cho biệt danh 'AI sáng tạo'.
Điều cần thiết là một mô hình nền tảng khác có khả năng ngoại suy được tích hợp như một công cụ phát hiện cho các chương trình an ninh mạng. Một trong số đó có khả năng tự tìm hiểu môi trường của mỗi tổ chức để dự báo động các hành vi dự kiến và xem các cuộc tấn công mới không phù hợp. Thông tin thêm về công nghệ này vào lúc khác. Hiện tại, cách tốt nhất là tiếp cận LLM giống như bất kỳ công nghệ mới nào—với một chiến lược được tính toán, đo lường và không quá tin tưởng vào những lời hứa hẹn.
Tham khảo bài viết gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Top