"Khiêu d.â.m nghèo đói”: mặt tối của hình ảnh nhân đạo do AI tạo ra

Code Nguyen
Code Nguyen
Phản hồi: 0

Code Nguyen

Writer
Nếu một bức ảnh cứu người được tạo ra bằng AI, nó còn “tử tế” không?

Khi “nghèo đói” trở thành công cụ AI để kiếm tiền​

Một hiện tượng đang khiến giới công nghệ và truyền thông nhân đạo lo ngại: những hình ảnh “đau khổ giả” do AI tạo ra, mô phỏng người nghèo, người chịu thiên tai hay nạn nhân chiến tranh. Chúng được gọi bằng một cái tên lạnh gáy – “k.h.i.ê.u d.â.m nghèo đói” (poverty porn).

1762830325973.png

Các chuyên gia truyền thông đạo đức như Kate Kardol và nền tảng FairPicture cảnh báo rằng kiểu hình ảnh này không chỉ làm sai lệch thực tế, mà còn làm xói mòn niềm tin giữa nhà tài trợ và các tổ chức phi chính phủ (NGO) thực sự đang cứu giúp con người.

Những hình ảnh “tổng hợp đau khổ” này được tạo ra để trông giống ảnh tư liệu, nhưng thực chất là sản phẩm của thuật toán. Khi nhà tài trợ phát hiện sự thật, cảm giác bị lừa khiến họ nghi ngờ tính minh bạch của cả ngành từ thiện.

Khi chính tổ chức nhân đạo “vô tình” tự bắn vào chân mình​

Một ví dụ điển hình là Tổ chức Ân xá Quốc tế chi nhánh Na Uy. Họ từng dùng hình ảnh AI để minh họa cho cuộc biểu tình ở Colombia năm 2021. Vấn đề là, ảnh đó sai chi tiết: đồng phục cảnh sát lỗi thời, quốc kỳ bị đảo màu. Chỉ sau vài giờ, cộng đồng mạng phát hiện ra, và uy tín của tổ chức bị ảnh hưởng nghiêm trọng.

Một số tổ chức biện minh rằng họ làm vậy để tránh rủi ro pháp lý và đạo đức, chẳng hạn như không cần xin phép người thật trong ảnh. Nhưng theo Kardol, đó là sự đánh đổi sai lầm, bởi khi hình ảnh trông thật nhưng không phản ánh sự thật, nó không còn là truyền thông nhân đạo, mà là thao túng cảm xúc.

1762830335978.png


Thực tế, vấn đề này không mới. Trước cả khi có AI, truyền thông viện trợ toàn cầu đã bị phê phán vì tái tạo những khuôn mẫu phân biệt chủng tộc, biến nỗi đau của người da màu thành công cụ gây quỹ cho phương Tây. Giờ đây, AI chỉ khiến quá trình đó nhanh hơn, tinh vi hơn và khó kiểm soát hơn.

Khi niềm tin trở thành nạn nhân của công nghệ​

Các thư viện ảnh trực tuyến ngày càng chứa nhiều hình AI mô phỏng người khổ nạn. Dù nhiều nơi tuyên bố đã kiểm duyệt, việc dán nhãn và kiểm soát vẫn rất lỏng lẻo. Kết quả là, người xem không thể phân biệt đâu là sự thật, đâu là dàn dựng.

Nhóm nghiên cứu của FairPicture đề xuất một bộ quy tắc rõ ràng cho các tổ chức nhân đạo:
  • Không sử dụng hình AI mô phỏng nỗi đau thật của con người.
  • Không dùng ảnh AI bắt chước nhiếp ảnh tài liệu.
  • Phải công khai khi có yếu tố AI trong thiết kế hoặc minh họa.
  • Xác định rõ ràng ranh giới giữa sử dụng AI hợp đạo đức và hành vi lừa dối công chúng.
Một lời nhắc đáng suy nghĩ: AI không tạo ra sự vô cảm, nó chỉ phơi bày cách chúng ta đang dùng nỗi đau của người khác để kể chuyện cho mình. (cybernews)

Nguồn: https://cybernews.com/ai-news/ai-steal-money-ngos-poverty-porn-cost/
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2toaWV1LWQtYS1tLW5naGVvLWRvaS1tYXQtdG9pLWN1YS1oaW5oLWFuaC1uaGFuLWRhby1kby1haS10YW8tcmEuNzM1OTMv
Top