CyberThao
Writer
Generative AI (AI sinh ngữ) đang thay đổi cách doanh nghiệp vận hành, học tập và đổi mới mỗi ngày. Nhưng đằng sau những ứng dụng tiện lợi và thông minh đó, một mối nguy hiểm đang âm thầm diễn ra. Các AI agent và quy trình GenAI tùy chỉnh đang mở ra những “lối rò rỉ” dữ liệu nhạy cảm mà đa số các nhóm kỹ thuật không hề nhận ra.
Nếu bạn đang tham gia vào việc xây dựng, triển khai hoặc quản lý hệ thống AI, thì đây là lúc cần đặt câu hỏi nghiêm túc:
Liệu các AI agent bạn đang sử dụng có đang làm rò rỉ dữ liệu nội bộ mà bạn không hề biết?
Phần lớn các mô hình GenAI không cố tình tiết lộ dữ liệu. Tuy nhiên, các agent này thường được kết nối trực tiếp với các hệ thống nội bộ của doanh nghiệp—như SharePoint, Google Drive, các kho lưu trữ S3 hoặc các công cụ nội bộ khác—nhằm cung cấp những câu trả lời thông minh, nhanh chóng.
Hãy hình dung một chatbot công ty vô tình tiết lộ bảng lương nội bộ. Hoặc một trợ lý AI để lộ thiết kế sản phẩm chưa công bố chỉ vì nhận được một câu hỏi có vẻ vô hại. Điều này không còn là giả định—nó đã và đang xảy ra thực tế.
Đây không chỉ là lý thuyết. Buổi hội thảo sẽ đi sâu vào các sự cố thực tế, phân tích những lỗi cấu hình gây ra rò rỉ thông tin—từ việc cấp quyền truy cập quá mức cho đến sự tin tưởng mù quáng vào các phản hồi của mô hình ngôn ngữ lớn (LLM).
Bạn sẽ học được:
Các nhóm bảo mật chịu trách nhiệm bảo vệ dữ liệu công ty
Nếu bạn đang tham gia vào việc xây dựng, triển khai hoặc quản lý hệ thống AI, thì đây là lúc cần đặt câu hỏi nghiêm túc:
Liệu các AI agent bạn đang sử dụng có đang làm rò rỉ dữ liệu nội bộ mà bạn không hề biết?
Phần lớn các mô hình GenAI không cố tình tiết lộ dữ liệu. Tuy nhiên, các agent này thường được kết nối trực tiếp với các hệ thống nội bộ của doanh nghiệp—như SharePoint, Google Drive, các kho lưu trữ S3 hoặc các công cụ nội bộ khác—nhằm cung cấp những câu trả lời thông minh, nhanh chóng.
Khi AI thông minh lại trở thành “lỗ hổng” bảo mật
Khi thiếu những chính sách kiểm soát truy cập nghiêm ngặt, quản trị phù hợp và giám sát liên tục, AI—even khi được lập trình với mục đích tốt—cũng có thể vô tình chia sẻ thông tin nhạy cảm với những người không có quyền truy cập, thậm chí đưa thông tin đó ra ngoài internet.Hãy hình dung một chatbot công ty vô tình tiết lộ bảng lương nội bộ. Hoặc một trợ lý AI để lộ thiết kế sản phẩm chưa công bố chỉ vì nhận được một câu hỏi có vẻ vô hại. Điều này không còn là giả định—nó đã và đang xảy ra thực tế.
Học cách chủ động bảo vệ doanh nghiệp — trước khi sự cố xảy ra
Sentra, đội ngũ chuyên gia an ninh AI, đang tổ chức hội thảo trực tuyến miễn phí với chủ đề “Bảo vệ AI Agents và Ngăn ngừa Rò rỉ Dữ liệu trong Quy trình GenAI”. Trong buổi chia sẻ này, các chuyên gia sẽ phân tích cách AI agent và các luồng GenAI có thể vô tình tiết lộ dữ liệu nhạy cảm, và quan trọng nhất là cách ngăn chặn từ sớm, trước khi một vụ rò rỉ xảy ra.Đây không chỉ là lý thuyết. Buổi hội thảo sẽ đi sâu vào các sự cố thực tế, phân tích những lỗi cấu hình gây ra rò rỉ thông tin—từ việc cấp quyền truy cập quá mức cho đến sự tin tưởng mù quáng vào các phản hồi của mô hình ngôn ngữ lớn (LLM).
Bạn sẽ học được:
- Những điểm thường xuyên gây ra rò rỉ dữ liệu trong các ứng dụng GenAI
- Các phương thức mà kẻ tấn công đang khai thác trong môi trường có tích hợp AI
- Cách siết chặt truy cập mà không làm ảnh hưởng đến sự đổi mới
- Các khung làm việc hiệu quả đã được chứng minh giúp bảo vệ AI agent từ đầu
Ai nên tham gia?
Buổi hội thảo này dành cho bất kỳ ai đang làm việc trong lĩnh vực liên quan đến AI, bao gồm:Các nhóm bảo mật chịu trách nhiệm bảo vệ dữ liệu công ty
- Kỹ sư DevOps triển khai các ứng dụng GenAI
- Lãnh đạo IT phụ trách quyền truy cập và tích hợp hệ thống
- Các chuyên gia IAM (quản trị danh tính) và quản trị dữ liệu xây dựng chính sách AI
- Các giám đốc, chủ sản phẩm AI đang tìm cách cân bằng giữa tốc độ và an toàn
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview