Microsoft chỉ điểm 1 nhà phát triển Việt Nam lạm dụng deepfake AI để tạo ảnh k.h.o.a t.h.a.n người nổi tiếng

A-Train The Seven
A-Train The Seven
Phản hồi: 0

A-Train The Seven

...'cause for once, I didn't hate myself.
Microsoft đang thể hiện cam kết về an toàn AI bằng cách cập nhật vụ kiện từ tháng 12/2024, công khai danh tính bốn nhà phát triển bị cáo buộc vượt qua các rào cản bảo vệ trên công cụ AI của mình để tạo deepfake người nổi tiếng. Vụ kiện, được nộp tại Tòa án Liên bang Virginia, đã dẫn đến lệnh tòa cho phép Microsoft tịch thu một website liên quan đến nhóm tội phạm mạng toàn cầu Storm-2139, giúp xác định các cá nhân: Arian Yadegarnia (biệt danh “Fiz”, Iran), Alan Krysiak (“Drago”, Anh), Ricky Yuen (“cg-dot”, Hồng Kông) và Phát Phùng Tấn (“Asakuri”, Việt Nam). Microsoft cho biết còn những người khác liên quan nhưng chưa tiết lộ để tránh cản trở cuộc điều tra đang diễn ra.

Theo Microsoft, Storm-2139 đã xâm nhập tài khoản bằng thông tin đăng nhập bị đánh cắp, “jailbreak” các dịch vụ AI như Azure OpenAI để tạo nội dung tùy ý, sau đó bán quyền truy cập cho kẻ khác. Nhóm này đã sản xuất ảnh khỏa thân deepfake của người nổi tiếng, vi phạm chính sách sử dụng của Microsoft. Sau khi website bị tịch thu và hồ sơ pháp lý được công khai vào tháng 1/2025, nhóm rơi vào hoảng loạn—thành viên chỉ trích lẫn nhau qua các kênh liên lạc, thậm chí doxxing luật sư của Microsoft (đăng thông tin cá nhân), nhưng điều này lại giúp công ty thu thập thêm bằng chứng khi một số kẻ gửi email đổ lỗi cho đồng bọn.

1740715842845.png


Deepfake, như ảnh khỏa thân giả của Taylor Swift lan truyền tháng 1/2024 (từ công cụ Designer của Microsoft), đã thúc đẩy công ty cập nhật mô hình văn bản-hình ảnh để tăng cường bảo vệ. Vụ việc cho thấy AI tạo sinh (generative AI) giúp sản xuất nội dung giả dễ dàng, gây hại ngoài đời thực—nạn nhân cảm thấy lo âu, sợ hãi khi bị nhắm đến. Mỹ đã ghi nhận nhiều vụ bắt giữ liên quan đến deepfake vị thành niên, và dự luật NO FAKES Act (2024) nhằm biến việc tạo ảnh giả mạo thành tội phạm. Anh đã xử phạt phân phối deepfake khiêu ***, sắp tới sẽ cấm cả sản xuất; Úc cũng vừa hình sự hóa việc tạo và chia sẻ deepfake không đồng thuận.

Tranh cãi trong cộng đồng AI về an toàn vẫn nóng: phe mã nguồn đóng (như OpenAI, Microsoft) cho rằng kiểm soát chặt giúp giảm lạm dụng; phe mã nguồn mở tin rằng tự do cải tiến thúc đẩy ngành mà không cần kìm hãm sáng tạo. Tuy nhiên, mối đe dọa tức thì—như deepfake và nội dung rác tràn ngập web—có vẻ bị lu mờ bởi lo ngại xa vời về AGI (trí tuệ nhân tạo tổng quát). Microsoft dùng pháp lý để đối phó, nhưng liệu đây là giải pháp lâu dài? Bạn nghĩ cách tiếp cận nào hiệu quả hơn trong việc kiểm soát lạm dụng AI hiện nay?
 


Đăng nhập một lần thảo luận tẹt ga
Top