Rò rỉ dữ liệu cá nhân từ Meta AI: Lỗ hổng nguy hiểm đã được vá

MinhSec
MinhSec
Phản hồi: 0

MinhSec

Writer
Một lỗ hổng nghiêm trọng trong hệ thống chatbot AI của Meta từng cho phép truy cập trái phép vào lời nhắc và phản hồi của người dùng khác làm dấy lên lo ngại lớn về quyền riêng tư và an toàn dữ liệu.

Lỗ hổng bảo mật dễ bị khai thác​

Sandeep Hodkasia nhà sáng lập công ty bảo mật AppSecure đã phát hiện ra lỗi này khi nghiên cứu cách Meta AI cho phép chỉnh sửa lời nhắc. Hệ thống gán mỗi lời nhắc và phản hồi một số định danh duy nhất, nhưng vấn đề nằm ở chỗ: những số này có thể bị sửa và... dễ đoán.

Bằng cách theo dõi lưu lượng mạng và thay đổi số định danh, Hodkasia có thể truy cập được vào dữ liệu người dùng khác bao gồm cả những nội dung riêng tư như mẹo xin việc, thông tin cá nhân, hay các đoạn hội thoại riêng tư với AI.
1752726130673.png

Nguy hiểm hơn, nếu lỗ hổng bị khai thác bởi hacker, dữ liệu thu được có thể bị dùng để tống tiền, đưa vào danh sách bán lại hoặc phục vụ cho các cuộc lừa đảo tinh vi.

Meta cho biết họ đã vá lỗi ngay sau khi nhận được báo cáo, và không ghi nhận bất kỳ hành vi khai thác nào trước đó. Hodkasia được Meta thưởng 10.000 USD cho phát hiện của mình.

Lo ngại dai dẳng về quyền riêng tư với Meta AI​

Không chỉ lỗi kỹ thuật, chính cách Meta đào tạo AI bằng dữ liệu mạng xã hội cũng gây ra tranh cãi. Theo chính Meta, họ sử dụng dữ liệu như sở thích, nội dung tương tác và hồ sơ người dùng để cá nhân hóa Meta AI. Người dùng cũng có thể yêu cầu AI ghi nhớ những thông tin riêng như đam mê du lịch hay học ngôn ngữ.

Tuy nhiên, các chuyên gia cho rằng đây là con dao hai lưỡi. Giáo sư Kok-Leong Ong (RMIT) cảnh báo rằng nếu không được kiểm soát chặt, AI của Meta có thể:

Gây rò rỉ dữ liệu nhạy cảm

Làm lây lan thông tin sai lệch

Gây ảnh hưởng đến sức khỏe tâm thần và giảm tương tác xã hội

Một số cơ quan quản lý tại Đức, Pháp, Bỉ và Hà Lan cũng đã lên tiếng phản đối, yêu cầu Meta ngừng sử dụng dữ liệu người dùng. Dù vậy, Tòa án Cologne (Đức) không chấp thuận yêu cầu cấm, và Meta vẫn tiếp tục quá trình đào tạo AI với cam kết minh bạch hơn và cải tiến biểu mẫu từ chối.

 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL3JvLXJpLWR1LWxpZXUtY2Etbmhhbi10dS1tZXRhLWFpLWxvLWhvbmctbmd1eS1oaWVtLWRhLWR1b2MtdmEuNjUwMDMv
Top