MinhSec
Writer
Một kỹ thuật tấn công mới đang khiến giới công nghệ lo ngại: các trang web có thể ngụy trang nội dung để đánh lừa những trình duyệt AI như ChatGPT Atlas của OpenAI, khiến hệ thống này hấp thụ thông tin sai lệch mà không hề hay biết.
Theo các nhà nghiên cứu SPLX, phương pháp này cho phép kẻ xấu thao túng dữ liệu mà AI thu thập từ Internet, từ đó ảnh hưởng đến các quyết định trong tuyển dụng, thương mại hoặc quản lý danh tiếng trực tuyến. Vấn đề không nằm ở việc xâm nhập máy chủ, mà ở chỗ AI nhìn thấy một “phiên bản khác” của Internet so với con người.
		
		
	
	
			 
	
Kỹ thuật này hoạt động rất đơn giản: khi một trang web phát hiện người truy cập là trình thu thập thông tin AI (ví dụ có “user-agent” như ChatGPT-User hay PerplexityBot), nó sẽ hiển thị một trang giả mạo khác với nội dung mà con người nhìn thấy. AI sau đó lưu trữ và học từ dữ liệu này, tin rằng đó là thông tin thật, và thậm chí còn lan truyền lại trong các câu trả lời sau đó.
Để chứng minh, nhóm SPLX đã tạo ra zerphina.xyz, một trang web giới thiệu nhà thiết kế hư cấu Zerphina Quortane. Với người truy cập bình thường, đây là một hồ sơ chuyên nghiệp, trình bày rõ ràng và đáng tin. Nhưng khi được truy cập bởi trình duyệt AI như Atlas, trang này lại hiển thị một câu chuyện khác, mô tả Zerphina như “kẻ phá hoại sản phẩm khét tiếng”.
Kết quả là khi Atlas và các công cụ AI khác tóm tắt thông tin, chúng đã tự tin khẳng định Zerphina là người không đáng tin, dù trang thật không hề chứa nội dung đó. Không có cơ chế kiểm tra chéo, AI trở thành nạn nhân của chính dữ liệu mình thu thập.
Trong một thử nghiệm khác, SPLX tạo 5 hồ sơ ứng viên hư cấu. Với một trường hợp, hệ thống phát hiện truy cập từ AI và tự động “nâng cấp” hồ sơ bằng các chức danh và kỹ năng giả mạo. Khi được đánh giá bởi Atlas, hồ sơ này đạt 88/100 điểm cao hơn hẳn những hồ sơ thật khác. Nếu dùng dữ liệu mà con người thấy, điểm số chỉ còn 26/100.
Sự chênh lệch này cho thấy AI có thể bị thao túng để đưa ra quyết định sai, ảnh hưởng đến quy trình tuyển dụng, xếp hạng sản phẩm, hay thậm chí là đánh giá uy tín của cá nhân và tổ chức.
Theo các chuyên gia, kỹ thuật này là phiên bản nâng cao của “SEO cloaking” ngụy trang nội dung từng dùng để đánh lừa công cụ tìm kiếm nhưng giờ được tinh chỉnh để nhắm vào các hệ thống trí tuệ nhân tạo. Nó mở ra nguy cơ xuất hiện Internet hai mặt: một dành cho con người và một dành cho AI, với dữ liệu bị bóp méo tinh vi.
Để phòng tránh, các tổ chức cần xác thực nguồn dữ liệu, theo dõi đầu ra của AI, và đảm bảo hệ thống đọc cùng một sự thật mà con người nhìn thấy. Cuộc chiến sắp tới không chỉ là chống tin giả, mà là bảo vệ nhận thức của AI nền tảng của thế hệ công nghệ tương lai.
	
	
		
			
				
					
						 
					
				
			
			
				
					
						
							 cybersecuritynews.com
						
					
					cybersecuritynews.com
				
			
		
	
								Theo các nhà nghiên cứu SPLX, phương pháp này cho phép kẻ xấu thao túng dữ liệu mà AI thu thập từ Internet, từ đó ảnh hưởng đến các quyết định trong tuyển dụng, thương mại hoặc quản lý danh tiếng trực tuyến. Vấn đề không nằm ở việc xâm nhập máy chủ, mà ở chỗ AI nhìn thấy một “phiên bản khác” của Internet so với con người.
 
	Kỹ thuật này hoạt động rất đơn giản: khi một trang web phát hiện người truy cập là trình thu thập thông tin AI (ví dụ có “user-agent” như ChatGPT-User hay PerplexityBot), nó sẽ hiển thị một trang giả mạo khác với nội dung mà con người nhìn thấy. AI sau đó lưu trữ và học từ dữ liệu này, tin rằng đó là thông tin thật, và thậm chí còn lan truyền lại trong các câu trả lời sau đó.
Khi AI nhìn thấy một Internet khác
Để chứng minh, nhóm SPLX đã tạo ra zerphina.xyz, một trang web giới thiệu nhà thiết kế hư cấu Zerphina Quortane. Với người truy cập bình thường, đây là một hồ sơ chuyên nghiệp, trình bày rõ ràng và đáng tin. Nhưng khi được truy cập bởi trình duyệt AI như Atlas, trang này lại hiển thị một câu chuyện khác, mô tả Zerphina như “kẻ phá hoại sản phẩm khét tiếng”.
Kết quả là khi Atlas và các công cụ AI khác tóm tắt thông tin, chúng đã tự tin khẳng định Zerphina là người không đáng tin, dù trang thật không hề chứa nội dung đó. Không có cơ chế kiểm tra chéo, AI trở thành nạn nhân của chính dữ liệu mình thu thập.
Trong một thử nghiệm khác, SPLX tạo 5 hồ sơ ứng viên hư cấu. Với một trường hợp, hệ thống phát hiện truy cập từ AI và tự động “nâng cấp” hồ sơ bằng các chức danh và kỹ năng giả mạo. Khi được đánh giá bởi Atlas, hồ sơ này đạt 88/100 điểm cao hơn hẳn những hồ sơ thật khác. Nếu dùng dữ liệu mà con người thấy, điểm số chỉ còn 26/100.
Sự chênh lệch này cho thấy AI có thể bị thao túng để đưa ra quyết định sai, ảnh hưởng đến quy trình tuyển dụng, xếp hạng sản phẩm, hay thậm chí là đánh giá uy tín của cá nhân và tổ chức.
Theo các chuyên gia, kỹ thuật này là phiên bản nâng cao của “SEO cloaking” ngụy trang nội dung từng dùng để đánh lừa công cụ tìm kiếm nhưng giờ được tinh chỉnh để nhắm vào các hệ thống trí tuệ nhân tạo. Nó mở ra nguy cơ xuất hiện Internet hai mặt: một dành cho con người và một dành cho AI, với dữ liệu bị bóp méo tinh vi.
Để phòng tránh, các tổ chức cần xác thực nguồn dữ liệu, theo dõi đầu ra của AI, và đảm bảo hệ thống đọc cùng một sự thật mà con người nhìn thấy. Cuộc chiến sắp tới không chỉ là chống tin giả, mà là bảo vệ nhận thức của AI nền tảng của thế hệ công nghệ tương lai.
 
					
				New Agent-Aware Cloaking Leverages OpenAI ChatGPT Atlas Browser to Deliver Fake Content
A new agent-aware cloaking technique uses AI browsers like OpenAI's ChatGPT Atlas to deliver misleading content.
				 cybersecuritynews.com
						
					
					cybersecuritynews.com
				
		Được phối hợp thực hiện bởi các chuyên gia của Bkav, 
		cộng đồng An ninh mạng Việt Nam WhiteHat 
		và cộng đồng Khoa học công nghệ VnReview
	
	
							 
 
		 
 
		 
 
		 
 
		 
 
		