Từ tháng 12/2025, OpenAI xác nhận sẽ cho phép người dùng trưởng thành đã xác minh truy cập nội dung người lớn trên ChatGPT. Đây được coi là một bước ngoặt lớn trong thị trường chatbot AI, đồng thời đặt ra một bài toán phức tạp về bảo vệ trẻ vị thành niên trước nội dung nhạy cảm và tương tác AI không kiểm soát.
ChatGPT từ lâu đã trở thành công cụ “bách khoa toàn thư” cho nhiều đối tượng, kể cả người trẻ tuổi. Khi mở quyền truy cập nội dung người lớn, điều cốt yếu là làm sao tách rõ ràng giữa người lớn và trẻ em trong môi trường AI mạnh mẽ, bảo đảm trẻ không tiếp xúc nội dung không phù hợp và không bị ảnh hưởng tiêu cực từ tương tác AI.
ChatGPT từ lâu đã trở thành công cụ “bách khoa toàn thư” cho nhiều đối tượng, kể cả người trẻ tuổi. Khi mở quyền truy cập nội dung người lớn, điều cốt yếu là làm sao tách rõ ràng giữa người lớn và trẻ em trong môi trường AI mạnh mẽ, bảo đảm trẻ không tiếp xúc nội dung không phù hợp và không bị ảnh hưởng tiêu cực từ tương tác AI.
Chế độ 18+ và xác minh tuổi
OpenAI xác nhận sẽ cho phép người dùng đã xác minh độ tuổi truy cập nội dung người lớn trên ChatGPT từ tháng 12/2025. Việc này mở ra thị trường chatbot người lớn vốn đang tăng trưởng mạnh, nhưng cũng đặt ra thách thức lớn trong việc bảo vệ người dưới 18 tuổi.
Để thực hiện điều này, OpenAI đang triển khai một hệ thống ước tính tuổi người dùng dựa trên hành vi sử dụng và tương tác với chatbot, nhằm phân biệt ai là người trưởng thành và ai là trẻ vị thành niên. Khi hệ thống không chắc chắn về độ tuổi, nó sẽ mặc định áp dụng trải nghiệm dành cho người dưới 18 để đảm bảo an toàn. Người dùng trưởng thành có thể xác minh tuổi bằng cách cung cấp ID chính thức để mở khóa quyền truy cập nội dung 18+.
Trong quá khứ, ChatGPT vận hành với giới hạn nội dung rất mạnh đối với tất cả người dùng, nhằm tránh rủi ro liên quan tới sức khỏe tâm thần và các vấn đề nhạy cảm. Tuy nhiên, theo CEO Sam Altman, giới hạn này khiến chatbot “kém hữu ích và kém hấp dẫn” đối với một số nhóm người lớn, từ đó ảnh hưởng tới trải nghiệm người dùng.
Để thực hiện điều này, OpenAI đang triển khai một hệ thống ước tính tuổi người dùng dựa trên hành vi sử dụng và tương tác với chatbot, nhằm phân biệt ai là người trưởng thành và ai là trẻ vị thành niên. Khi hệ thống không chắc chắn về độ tuổi, nó sẽ mặc định áp dụng trải nghiệm dành cho người dưới 18 để đảm bảo an toàn. Người dùng trưởng thành có thể xác minh tuổi bằng cách cung cấp ID chính thức để mở khóa quyền truy cập nội dung 18+.
Trong quá khứ, ChatGPT vận hành với giới hạn nội dung rất mạnh đối với tất cả người dùng, nhằm tránh rủi ro liên quan tới sức khỏe tâm thần và các vấn đề nhạy cảm. Tuy nhiên, theo CEO Sam Altman, giới hạn này khiến chatbot “kém hữu ích và kém hấp dẫn” đối với một số nhóm người lớn, từ đó ảnh hưởng tới trải nghiệm người dùng.
Rủi ro đối với trẻ vị thành niên
Việc mở quyền truy cập nội dung người lớn cũng kéo theo rủi ro tiềm ẩn cho người dưới 18:
- AI có khả năng sáng tạo nội dung thời gian thực, diễn giải các yêu cầu mơ hồ thành nội dung nhạy cảm - đặc biệt là khi mô hình hỗ trợ đa phương thức như tạo ảnh, âm thanh và video.
- Dù ChatGPT cấm việc tạo nội dung khiêu ***, bạo lực hay ***** cho trẻ dưới 18, không có hệ thống an toàn nào là hoàn hảo; các mô hình AI lớn phức tạp có thể có sai sót trong phân loại nội dung hoặc ước tính tuổi.
- Trẻ vị thành niên có thể cố tình “vượt rào” bằng cách thao túng dữ liệu, kể cả sử dụng tài khoản giả, khiến hệ thống ước tính tuổi hiểu sai. Việc này đặt ra yêu cầu cao về cơ chế xác minh và kiểm duyệt nội dung ở nhiều tầng, từ thiết kế model đến hệ thống lọc đầu vào – đầu ra.
Giải pháp và biện pháp bảo vệ
OpenAI và các nhà phát triển AI đang triển khai nhiều lớp biện pháp nhằm giảm thiểu rủi ro, gồm:
- Hệ thống ước tính độ tuổi tự động, sử dụng hành vi và tín hiệu ngôn ngữ để phân biệt người dùng dưới và trên 18 tuổi, với mức bảo vệ cao hơn dành cho trẻ. Khi không chắc chắn tuổi, hệ thống sẽ áp dụng chế độ an toàn dành cho trẻ.
- Kiểm duyệt nội dung thời gian thực, chặn các yêu cầu tạo nội dung nhạy cảm, khiêu ***, bạo lực hay liên quan tự làm hại.
- Các công cụ kiểm soát của phụ huynh, cho phép liên kết tài khoản teen và phụ huynh, giới hạn giờ sử dụng, tắt chức năng tạo nội dung nhất định và nhận thông báo khi phát hiện tín hiệu nguy hiểm.
- Các tiêu chuẩn thiết kế an toàn theo hướng “Safety by Design”, yêu cầu kiểm soát dữ liệu huấn luyện, giám sát đầu vào – đầu ra, và cơ chế kiểm toán định kỳ, nhằm đảm bảo mức độ lọc nội dung phù hợp với trẻ em.
Các bài học từ thế giới và động thái pháp lý
Không chỉ riêng OpenAI, các công ty công nghệ khác như Anthropic cũng đang phát triển các biện pháp tương tự để bảo vệ người dùng nhỏ tuổi khỏi nội dung không phù hợp. Việc này diễn ra trong bối cảnh áp lực pháp lý ngày càng tăng mạnh, nhiều bang tại Mỹ đã ban hành luật yêu cầu chatbot nhắc người dùng biết mình đang nói chuyện với AI và chặn nội dung tự làm hại; các dự luật liên bang cũng được đề xuất nhằm cấm trẻ sử dụng chatbot AI trừ khi có xác minh tuổi rõ ràng.
Cân bằng giữa sáng tạo và an toàn
Việc OpenAI bật chế độ 18+ trên ChatGPT đánh dấu bước phát triển quan trọng của AI hướng tới thị trường người lớn, nhưng đồng thời đặt ra trách nhiệm rất lớn trong việc bảo vệ trẻ vị thành niên khỏi rủi ro nội dung và tương tác không phù hợp. Công nghệ mạnh mẽ như AI cần được thiết kế từ gốc với các lớp bảo vệ đa chiều, từ xác minh tuổi đến kiểm duyệt nội dung và kiểm soát bởi phụ huynh, nhằm giữ an toàn cho nhóm người dùng dễ tổn thương.
Đối với cộng đồng và phụ huynh, điều quan trọng là hiểu rõ giới hạn và rủi ro tồn tại ngay cả với hệ thống an toàn tiên tiến nhất, đồng thời chủ động sử dụng các biện pháp kiểm soát và giám sát càng sớm càng tốt. Chỉ khi kết hợp được sự phát triển công nghệ và trách nhiệm xã hội, AI mới có thể phục vụ mọi đối tượng một cách lành mạnh và bền vững.
Đối với cộng đồng và phụ huynh, điều quan trọng là hiểu rõ giới hạn và rủi ro tồn tại ngay cả với hệ thống an toàn tiên tiến nhất, đồng thời chủ động sử dụng các biện pháp kiểm soát và giám sát càng sớm càng tốt. Chỉ khi kết hợp được sự phát triển công nghệ và trách nhiệm xã hội, AI mới có thể phục vụ mọi đối tượng một cách lành mạnh và bền vững.
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview