Chụp ảnh con cởi trần để nhờ bác sỹ chẩn bệnh trực tuyến, phụ huynh bị AI của Google khóa tài khoản và báo cáo lạm dụng tình dục trẻ em

V
VNR Content
Phản hồi: 0
Một ông bố lo lắng cho biết, sau khi sử dụng điện thoại Android của mình để chụp ảnh vùng háng bị nhiễm trùng của cậu con trai mới biết đi, Google đã ngay lập tức gắn cờ cảnh báo những bức ảnh này có nội dung lạm dụng tình dục trẻ em (CSAM) - theo thông tin từ tờ The New York Times. Công ty sau đó còn khóa luôn tài khoản của người bố, đồng thời nộp đơn trình báo lên Trung tâm Trẻ bị Lợi dụng và Mất tích Quốc gia (NCMEC), khiến vị phụ huynh xui xẻo vướng vào một cuộc điều tra từ sở cảnh sát địa phương. Sự việc bất khả kháng này đã làm dấy lên những tranh cãi xoay quanh vấn đề AI gặp sai sót khi tìm cách phân biệt nội dung lạm dụng và một bức ảnh bình thường, khi mà bức ảnh đó được xem là một tài sản số của người dùng, dù nó ở trong thiết bị cá nhân hay trên đám mây đi chăng nữa. Trên thực tế, những quan ngại như vậy đã xuất hiện từ năm ngoái, khi Apple công bố kế hoạch Child Safety của hãng. Theo đó, Apple sẽ quét ảnh trên các thiết bị Apple trước khi chúng được tải lên iCloud, và sau đó hệ thống sẽ phân tích ảnh với cơ sở dữ liệu băm của NCMEC về CSAM. Nếu trùng khớp ở một mức độ nào đó, một kiểm duyệt viên con người sẽ đánh giá lại nội dung đó và khóa tài khoản người dùng nếu nội dung quả thật có chứa CSAM. Tổ chức Biên giới Điện tử (EFF), một nhóm bảo vệ quyền con người trong thế giới số, đã lên tiếng chỉ trích kế hoạch của Apple, rằng điều đó có thể khiến cuộc sống riêng tư của người dùng bị xâm phạm và thể hiện sự xuống cấp về quyền riêng tư đối với tất cả người dùng iCloud Photos, chứ không phải là một sự cải thiện như hãng vẫn nghĩ. Trước tình hình đó, Apple đã phải tạm ngừng kế hoạch quét ảnh; nhưng với iOS 15.2 vừa ra mắt, họ quyết định tiếp tục bằng cách tung ra một tính năng không bắt buộc dành cho các tài khoản trẻ em trong gói iCloud gia đình. Nếu cha mẹ tham gia, thì ứng dụng Messages liên kết với tài khoản của con cái họ sẽ phân tích ảnh đính kèm và đánh giá xem liệu ảnh có chứa nội dung khỏa thân hay không, đồng thời duy trì mã hóa hai đầu đối với tất cả tin nhắn. Nếu phát hiện ảnh khỏa thân, hệ thống sẽ làm mờ nó, hiển thị cảnh báo cho trẻ, và cung cấp cho chúng những biện pháp nhằm tự bảo vệ trong quá trình lướt web.
Chụp ảnh con cởi trần để nhờ bác sỹ chẩn bệnh trực tuyến, phụ huynh bị AI của Google khóa tài khoản và báo cáo lạm dụng tình dục trẻ em
Mark và con trai (ảnh do phóng viên tờ The New York Times chụp) Quay trở lại sự việc liên quan AI Google: được biết, mọi chuyện diễn ra vào tháng 2/2021, khi một số phòng khám vẫn đóng cửa do đại dịch COVID-19. Mark (tên vị phụ huynh) phát hiện ra vùng sinh dục của con mình bị sưng tấy, và theo đề nghị của một y tá, anh đã chụp ảnh vết thương trong khi hỏi ý kiến bác sỹ qua video. Bác sỹ sau đó xác định con Mark bị nhiễm trùng và kê đơn kháng sinh cho bé. Theo tờ The New York Times, Mark nhận được thông báo từ Google chỉ hai ngày sau khi chụp ảnh, trong đó nêu rõ tài khoản của anh đã bị khóa do chứa nội dung độc hại vi phạm nghiêm trọng chính sách của Google, và có thể là hành vi vi phạm pháp luật. Giống nhiều công ty internet, bao gồm Facebook, Twitter, và Reddit, Google sử dụng thuật toán phân tích băm với PhotoDNA của Microsoft để quét ảnh đã tải lên nhằm phát hiện dấu hiệu trùng khớp với ảnh CSAM đã biết. Năm 2012, thông qua công cụ này, Google đã giúp bắt được một gã chuyên tấn công tình dục và sử dụng Gmail để gửi ảnh khỏa thân của các cô gái trẻ. Năm 2018, Google công bố ra mắt bộ công cụ AI Content Safety API, có khả năng chủ động xác định những hình ảnh CSAM chưa từng thấy trước đó, để có thể đánh giá, và nếu thực sự được xác nhận là CSAM, sẽ bị xóa và báo cáo ngay lập tức. Hãng sử dụng công cụ này cho các dịch vụ của chính mình, và cung cấp nó, cùng với giải pháp so khớp băm CSAI Match chuyên dụng cho video được phát triển bởi các kỹ sư YouTube, cho các khách hàng khác nữa. Một người phát ngôn của Google cho biết hãng chỉ quét ảnh riêng tư của người dùng khi họ có hành động xác nhận, tức là bao gồm việc sao lưu ảnh lên Google Photos. Khi Google gắn cờ ảnh có nội dung lạm dụng, thì theo luật liên bang Hoa Kỳ, hãng buộc phải báo cáo người dùng sai phạm lên đường dây khẩn cấp CyberTipLine tại NCMEC. Năm 2021, Google đã báo cáo đến 621.583 trường hợp CSAM lên đường dây này, và NCMEC đã gửi cho chính quyền danh sách 4.260 nạn nhân, bao gồm con trai của Mark!
Chụp ảnh con cởi trần để nhờ bác sỹ chẩn bệnh trực tuyến, phụ huynh bị AI của Google khóa tài khoản và báo cáo lạm dụng tình dục trẻ em
Mark và chiếc điện thoại Android của mình Do sự cố này, Mark mất quyền truy cập vào email, danh bạ, hình ảnh, và thậm chí là số điện thoại của chính mình, bởi anh sử dụng dịch vụ di động Google Fi. Mark ngay lập tức kháng cáo quyết định của Google, nhưng bị từ chối. Sở cảnh sát San Francisco, nơi Mark sống, đã mở một cuộc điều tra nhằm vào Mark vào tháng 12/2021 và thu giữ toàn bộ thông tin anh lưu trữ trên Google. Điều tra viên vụ án cuối cùng đã tuyên bố rằng vụ việc không có yếu tố tội phạm và không có hành vi phạm tội nào xảy ra. “CSAM là loại nội dung tồi tệ, và chúng tôi cam kết ngăn chặn sự lan tràn của nó trên các nền tảng của mình” - người phát ngôn Christa Muldoon của Google nói trong email gửi trang TheVerge. “Chúng tôi tuân thủ luật pháp Hoa Kỳ trong việc xác định những yếu tố cấu thành nên CSAM và sử dụng công nghệ so khớp băm kết hợp AI để xác định và loại bỏ nó khỏi nền tảng của mình. Ngoài ra, nhóm các chuyên gia về an toàn trẻ em của chúng tôi còn đánh giá những nội dung bị gắn cờ để đảm bảo độ chính xác, và trao đổi với các bác sỹ nhi khoa để đảm bảo chúng tôi có thể xác định được những tình huống mà người dùng có thể đang muốn tư vấn y tế” Dù bảo vệ trẻ em khỏi bị lạm dụng là điều đặc biệt quan trọng, nhiều chuyên gia chỉ trích động thái quét ảnh người dùng là hành vi xâm phạm trắng trợn quyền riêng tư. Jon Callas, giám đốc công nghệ tại EFF gọi hành động của Google là “ẩu tả” khi bình luận với tờ The New York Times. “Đây chính xác là cơn ác mộng mà chúng ta đều đang lo sợ” - Callas nói. “Họ sẽ quét album ảnh gia đình của tôi, và rồi tôi sẽ gặp đủ thứ rắc rối cho xem” Tham khảo: TheVerge

>> Apple sẽ tự quét ảnh iCloud người dùng tại Mỹ để tìm nội dung liên quan lạm dụng trẻ em

 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top