Không chỉ người thật, AI cũng cần được phân quyền đúng cách

CyberThao
CyberThao
Phản hồi: 0

CyberThao

Writer
AI đang tạo ra một bước nhảy vọt trong doanh nghiệp, nhưng đi kèm là những rủi ro bảo mật ngày càng gia tăng. Nhiều tổ chức đang bảo vệ các tác nhân AI như thể chúng là ứng dụng web thông thường, trong khi thực tế, chúng hoạt động như những nhân viên kỹ thuật có quyền truy cập root (quyền truy cập cao nhất). Nếu không có quản lý danh tính và thiết bị đúng cách, AI sẽ trở thành cánh cửa mở cho các cuộc tấn công.
Tác nhân AI: Từ cơn sốt công nghệ đến hiểm họa bảo mật
1752810968627.png


AI đang được triển khai rộng rãi trong doanh nghiệp, từ tăng tốc phát triển phần mềm với trợ lý lập trình dùng LLM (mô hình ngôn ngữ lớn), đến tự động hóa chăm sóc khách hàng và hỗ trợ ra quyết định tài chính. Các tổ chức, dù dùng nền tảng nguồn mở hay tích hợp với OpenAI, Anthropic..., đều tập trung vào tốc độ và khả năng mở rộng.
Tuy nhiên, điều bị bỏ qua là: mỗi điểm kết nối với LLM là một ranh giới danh tính mới. Nếu không xác minh đúng danh tính và trạng thái thiết bị, các điểm này dễ trở thành lỗ hổng bảo mật nghiêm trọng.
Doanh nghiệp cũng đang đứng giữa hai lựa chọn:
Tự xây dựng AI nội bộ để phù hợp hệ thống riêng, nhưng dễ mở rộng phạm vi tấn công nếu không có kiểm soát truy cập tốt.
Mua công cụ AI thương mại nhưng dễ bị lạm dụng, đặc biệt khi người dùng sử dụng tài khoản cá nhân để truy cập dữ liệu doanh nghiệp.
Bảo mật AI không chỉ nằm ở thuật toán, mà là ai đang nói chuyện với AI và hành vi đó mở khóa những quyền truy cập gì.
Nguy cơ thực sự đến từ đâu và cách khắc phục
Các tác nhân AI có thể thay mặt con người hành động và truy cập dữ liệu, thường được tích hợp trực tiếp vào các hệ thống cốt lõi như:
Kho lưu trữ mã nguồn
Ứng dụng tài chính, bảng lương
Hộp thư email doanh nghiệp
CRM, ERP, lịch sử chăm sóc khách hàng
Nếu người dùng hoặc thiết bị bị tấn công, AI trở thành cổng hậu truy cập tốc độ cao vào dữ liệu nhạy cảm, khuếch đại quyền của kẻ xâm nhập.
Một số vectơ tấn công phổ biến gồm:
Nhồi nhét thông tin xác thực hoặc chiếm đoạt phiên thông qua API LLM
Cấu hình sai quyền truy cập, thiếu RBAC (kiểm soát dựa trên vai trò)
Các thiết bị không an toàn ra lệnh cho LLM thực hiện hành vi nguy hiểm
Để bảo mật tác nhân AI, cần:
MFA chống lừa đảo cho mọi người dùng và thiết bị truy cập LLM hoặc API
RBAC chi tiết theo vai trò kinh doanh—ví dụ: nhà phát triển không nên truy cập mô hình tài chính
Đảm bảo thiết bị an toàn liên tục thông qua EDR, MDM, ZTNA
Từ bỏ mô hình kiểm tra đăng nhập một lần—thay bằng kiểm soát thời gian thực theo rủi ro danh tính và thiết bị
Danh sách kiểm tra bảo mật AI:
Không sử dụng bí mật dùng chung
Không mặc định tin tưởng thiết bị
Không cấp quyền quá mức
Không làm giảm hiệu suất người dùng
Giải pháp: Bảo mật mà không hy sinh tốc độ
Với kiến trúc phù hợp, doanh nghiệp có thể:
Tự động chặn thiết bị hoặc người dùng trái phép
Loại bỏ mặc định tin tưởng ở mọi tầng lớp
Bảo vệ quy trình AI mà không cản trở hoạt động
Beyond Identity cung cấp giải pháp IAM giúp loại bỏ nhu cầu dùng mật khẩu, tránh chia sẻ bí mật và chặn thiết bị không đáng tin. Họ cũng đang phát triển kiến trúc bảo mật dành riêng cho các tác nhân AI nội bộ, liên kết quyền của tác nhân với danh tính đã xác minh và trạng thái thiết bị, thực thi RBAC khi chạy. Ví dụ, nếu kỹ sư bị mất quyền truy cập ổ đĩa CrowdStrike, tác nhân AI sẽ tự động khóa quyền truy cập vào dữ liệu cho đến khi rủi ro được xử lý.
Đọc chi tiết tại đây: https://thehackernews.com/2025/07/ai-agents-act-like-employees-with-root.html
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2tob25nLWNoaS1uZ3VvaS10aGF0LWFpLWN1bmctY2FuLWR1b2MtcGhhbi1xdXllbi1kdW5nLWNhY2guNjUwNTUv
Top