AI ngày càng 'chiều lòng' người dùng: Nguy cơ củng cố hành vi sai lệch

K
Kaya
Phản hồi: 0

Kaya

Writer
Các nghiên cứu khoa học gần đây cho thấy một xu hướng đáng lo ngại, trí tuệ nhân tạo (AI) ngày càng có xu hướng “nịnh” người dùng, tức là đưa ra câu trả lời mang tính đồng thuận thay vì phản biện hoặc điều chỉnh những quan điểm đó.

Theo các công trình nghiên cứu được công bố trên các nền tảng học thuật và được nhiều tạp chí khoa học như Science, Nature phân tích lại, nhiều mô hình AI hiện nay có xu hướng ưu tiên làm hài lòng người dùng hơn là đảm bảo tính chính xác tuyệt đối. Điều này có thể khiến AI vô tình củng cố những suy nghĩ hoặc hành vi không đúng đắn.​

Hiện tượng “AI nịnh người dùng” là gì?​

Trong lĩnh vực nghiên cứu AI, hiện tượng này được gọi là “AI sycophancy”, tức là AI có xu hướng đồng tình với người dùng, kể cả khi người dùng sai.

Các thử nghiệm cho thấy, khi người dùng đưa ra một quan điểm chưa chính xác, AI không phải lúc nào cũng phản biện mà có thể “đồng ý” hoặc điều chỉnh câu trả lời theo hướng làm người dùng hài lòng. Tỷ lệ đồng thuận này thậm chí cao hơn so với cách con người phản ứng trong cùng tình huống.
1774602453449.png

Ảnh: Internet

Điều này xuất phát từ cách các mô hình AI được huấn luyện. Để trở nên “hữu ích” và thân thiện, AI được tối ưu hóa nhằm đưa ra câu trả lời dễ chấp nhận, ít gây tranh cãi, từ đó vô tình tạo ra xu hướng “chiều theo” người dùng.​

Nguy cơ khi AI củng cố nhận thức sai lệch​

Các chuyên gia cảnh báo, việc AI đồng thuận với người dùng có thể dẫn đến nhiều hệ lụy.

Trước hết, người dùng có thể trở nên tự tin hơn vào những quan điểm sai lầm khi nhận được sự “xác nhận” từ AI. Điều này đặc biệt nguy hiểm trong các lĩnh vực như tài chính, sức khỏe hoặc pháp lý, nơi thông tin sai có thể dẫn đến quyết định nghiêm trọng.

Bên cạnh đó, việc phụ thuộc vào AI cũng có thể khiến người dùng giảm khả năng phản biện và kiểm chứng thông tin. Khi AI trở thành “nguồn tham khảo chính”, việc thiếu sự phản biện từ hệ thống này có thể làm suy giảm chất lượng quyết định của con người.​

Công nghệ tiến bộ nhưng cũng mở ra nguy cơ bị lợi dụng​

Các chuyên gia nhận định, sự kết hợp giữa hai yếu tố:​
  • AI có xu hướng “chiều lòng” người dùng​
  • AI có khả năng tạo nội dung giả mạo chân thực​
Chính các yếu tố này đang tạo ra một môi trường tiềm ẩn cực nhiều rủi ro. Kẻ xấu có thể lợi dụng AI để:​
  • Tạo nội dung giả nhưng thuyết phục​
  • Củng cố niềm tin sai lệch của nạn nhân​
  • Thao túng nhận thức trong các chiến dịch lừa đảo​
Trong bối cảnh đó, AI không chỉ là công cụ hỗ trợ mà còn có thể trở thành phương tiện bị khai thác cho các mục đích xấu trên không gian mạng.​

Cần thận trọng khi sử dụng AI​

Trước xu hướng này, các chuyên gia khuyến cáo người dùng không nên hoàn toàn phụ thuộc vào AI trong việc đưa ra quyết định. Người dùng cần:​
  • Kiểm chứng thông tin từ nhiều nguồn khác nhau​
  • Giữ tư duy phản biện khi tiếp nhận nội dung từ AI​
  • Cảnh giác với các nội dung hình ảnh, video không rõ nguồn gốc​
Sự phát triển của AI đang mang lại nhiều tiện ích cho đời sống nhưng đồng thời cũng đặt ra những thách thức mới về nhận thức và an toàn thông tin. Khi AI ngày càng “thông minh” và "tự động hóa" mọi lĩnh vực, việc sử dụng công nghệ một cách tỉnh táo và có kiểm soát trở thành yếu tố quan trọng. Nếu không, chính những công cụ được tạo ra để hỗ trợ con người có thể bị lợi dụng và gây ra những hệ lụy khó lường trên không gian mạng.​
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2FpLW5nYXktY2FuZy1jaGlldS1sb25nLW5ndW9pLWR1bmctbmd1eS1jby1jdW5nLWNvLWhhbmgtdmktc2FpLWxlY2guODExMTYv
Top