Bạn có đang vô tình 'bán đứng' dữ liệu công ty cho AI?

Code Nguyen
Code Nguyen
Phản hồi: 0

Code Nguyen

Writer
Bạn có đang vô tình "bán đứng" dữ liệu công ty cho AI mà không hay biết?

Chúng ta ai cũng từng lén "hỏi ké" AI khi bí ý tưởng, gấp việc hay muốn làm nhanh một nhiệm vụ rườm rà. Nhưng bạn có bao giờ dừng lại một chút để nghĩ: “Mình đang dán cái gì vào đây?”

Nếu thứ bạn đang dán là thông tin khách hàng, hồ sơ nội bộ, kế hoạch tài chính hay... đoạn mã độc quyền của công ty, thì bạn không đơn độc đâu. Một nghiên cứu mới từ Harmonic Security cho thấy có tới 8,5% các đoạn yêu cầu gửi vào các công cụ AI sinh nội dung (Generative AI) chứa dữ liệu nhạy cảm.

1751511514456.png

Và đây mới là phần đáng giật mình: gần 46% dữ liệu bị lộ là thông tin khách hàng, từ số thẻ tín dụng đến hồ sơ y tế hay thông tin thanh toán. Người dùng thường không cố ý làm sai, chỉ là họ quá tin vào sự tiện lợi, quá quen với việc “dán cho nhanh”.

Khi dữ liệu trở thành “mồi ngon” cho AI​


Có 5 loại dữ liệu đang bị đưa vào các công cụ AI mà không qua kiểm soát:
  1. Thông tin khách hàng: dễ bị lạm dụng nhất và cũng nguy hiểm nhất nếu bị lọt ra ngoài hoặc dùng để huấn luyện AI không kiểm soát.
  2. Dữ liệu nhân sự: đánh giá hiệu suất, bảng lương, thông tin cá nhân – tưởng là nội bộ, hóa ra đang... bay thẳng lên đám mây AI.
  3. Thông tin pháp lý và tài chính: một file hợp đồng, một kế hoạch sáp nhập tưởng như vô hại, nhưng nếu bị lộ có thể gây thiệt hại lớn.
  4. Dữ liệu an ninh và cấu hình hệ thống: các bản thử xâm nhập, thông tin cấu hình mạng nếu rơi vào tay kẻ xấu là mở cửa sau cho tin tặc.
  5. Mã nguồn: bí mật cạnh tranh, tài sản trí tuệ – rò rỉ là mất lợi thế ngay.

Cấm đoán không phải là cách, nhưng cũng đừng “thả rông” AI​

Dù rủi ro là thật, không thể phủ nhận GenAI đang giúp các công ty tiết kiệm thời gian, tăng năng suất và mở ra những đột phá mới. Nhưng nếu không kiểm soát, cái giá phải trả có thể là mất dữ liệu, mất uy tín và bị xử phạt theo quy định bảo mật dữ liệu.

Giải pháp không phải là cấm dùng AI, mà là quản trị có trách nhiệm:
  • Xây dựng chính sách rõ ràng: xác định dữ liệu nào được phép và không được phép nhập vào AI.
  • Dùng công cụ giám sát đầu vào: theo dõi dữ liệu nhập vào GenAI, đảm bảo không rò rỉ thông tin nhạy cảm.
  • Đào tạo nhân viên: giúp họ hiểu rõ rủi ro và hành xử có trách nhiệm khi dùng AI.
  • Sử dụng kỹ thuật bảo mật: như hệ thống chống thất thoát dữ liệu (DLP), phân quyền truy cập, lưu vết hoạt động.

AI sinh nội dung không xấu, nhưng nếu dùng sai cách thì nó có thể biến mỗi nhân viên thành một "cửa ngõ" lộ thông tin. Giống như việc lái xe, bạn có thể tận hưởng tốc độ nếu biết cầm lái an toàn.

Vấn đề không phải là dùng hay không dùng AI, mà là dùng thế nào để AI phục vụ bạn – chứ không phải làm bạn “phơi bày” trước rủi ro.

businesstoday
Nguồn bài viết: https://www.businesstoday.in/opinio...dged-sword-of-generative-ai-482741-2025-07-02
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2Jhbi1jby1kYW5nLXZvLXRpbmgtYmFuLWR1bmctZHUtbGlldS1jb25nLXR5LWNoby1haS42NDE3NS8=
Top