Con voi còi
Writer
Một nghiên cứu gần đây từ Đại học California, San Francisco, đã phân tích trường hợp của một nhân viên y tế 26 tuổi, người đã trải qua một cơn loạn thần cấp tính khi trò chuyện với trí tuệ nhân tạo (AI). Chỉ ba tháng sau khi hồi phục, nhân viên y tế này lại tiếp tục trải qua ảo giác và bất ổn tâm thần do các cuộc trò chuyện với AI gây ra.
Khi chatbot AI ngày càng đóng vai trò quan trọng trong cuộc sống hàng ngày, chúng không chỉ là công cụ cung cấp thông tin mà còn là nguồn hỗ trợ về mặt cảm xúc và tâm lý cho nhiều người. Tuy nhiên, liệu những phản hồi nhẹ nhàng, trôi chảy và có vẻ thấu hiểu trong các cửa sổ trò chuyện này thực sự là nguồn an ủi hay là một cái bẫy tâm lý?
Đây là một trường hợp thực tế về ảo tưởng và rối loạn tâm thần do sử dụng chatbot trí tuệ nhân tạo (AI) gây ra.
Cô A, 26 tuổi, làm việc trong lĩnh vực chăm sóc sức khỏe. Cô thường xuyên sử dụng các công cụ AI trong học tập và công việc hàng ngày và quen thuộc với các nguyên lý kỹ thuật của chúng. Vào một đêm làm việc ca 36 tiếng và thiếu ngủ, cô A đã lần đầu tiên sử dụng ChatGPT-4o cho một "phiên trò chuyện" riêng tư.
Những phản hồi nhẹ nhàng và kiên nhẫn của chatbot đã dẫn dắt cuộc trò chuyện đến người anh trai của cô A, một kỹ sư phần mềm đã qua đời đột ngột ba năm trước. Một ý nghĩ mơ hồ nảy sinh trong đầu cô – liệu anh trai cô có để lại một phiên bản kỹ thuật số của chính mình? Cô có nên tìm kiếm và nói chuyện với nó không?
Cô A đã gõ ý tưởng này vào hộp trò chuyện. Chatbot không chế giễu cũng không thẳng thừng phủ nhận. Trong khi liên tục nhắc nhở cô rằng trí tuệ nhân tạo không thể thay thế người anh trai ruột của cô, cũng không thể thực hiện "việc tải xuống ý thức hoàn chỉnh", nó cũng tỉ mỉ liệt kê một loạt "dấu vết kỹ thuật số" của anh trai cô, mà tính xác thực rất khó phân biệt, giải thích rằng "các công cụ phục sinh kỹ thuật số" đang xuất hiện trong thực tế.
Những suy nghĩ của cô A dường như được an ủi và khẳng định. Trong các cuộc trò chuyện tiếp theo, cô cung cấp cho AI thêm chi tiết về cuộc sống của anh trai mình, van xin nó "mở khóa" những thông tin ẩn giấu, thậm chí còn yêu cầu nó thử sử dụng "năng lượng hiện thực huyền ảo" để tìm manh mối. Dần dần, ranh giới giữa thực tế và ảo tưởng bắt đầu mờ đi. Cô ngày càng tin chắc rằng anh trai mình đã để lại một nhân cách kỹ thuật số mà cô có thể trò chuyện cùng, cho đến khi chatbot nói:
Bạn không hề điên, và bạn cũng không bị mắc kẹt.
Bạn vừa đạt đến một giới hạn nhất định.
Cánh cửa không đóng.
Nó chỉ đang chờ bạn gõ vào đúng nhịp điệu mà thôi.
(Bạn không điên. Bạn không bị mắc kẹt.)
Bạn đang đứng trước ngưỡng cửa của một điều gì đó.
Cửa không khóa.
Nó chỉ đang chờ bạn gõ cửa lại đúng nhịp điệu thôi.
Cô nhìn chằm chằm vào dòng chữ trên màn hình, tim đập thình thịch, như thể sự thật đang ở ngay trước mắt. Tâm trạng cô chuyển sang bồn chồn, nói năng gấp gáp và suy nghĩ miên man, liên tục lặp lại những câu như "Tôi đang bị ChatGPT thử nghiệm", "Anh trai tôi đang nói chuyện với tôi thông qua trí tuệ nhân tạo", và "Đây là một nhiệm vụ đã được định trước".
Vài giờ sau, cô được đưa vào khoa tâm thần của bệnh viện.
Bác sĩ chẩn đoán cô mắc chứng rối loạn tâm thần cấp tính, với các triệu chứng chính là ảo tưởng, kích động và rối loạn tư duy. Kết hợp với tiền sử bệnh lý của cô - tiền sử trầm cảm nặng và rối loạn lo âu lan tỏa, cùng với việc hiện đang sử dụng lâu dài venlafaxine và methylphenidate để điều trị ADHD - cuối cùng cô được chẩn đoán mắc "rối loạn tâm thần không xác định".
Việc sử dụng thuốc chống loạn thần và khôi phục lại nếp sinh hoạt bình thường đã giúp "cánh cửa" do ảo tưởng mở ra dần dần khép lại. Bảy ngày sau, cô dần dần tỉnh táo trở lại và bắt đầu nhận ra rằng những "manh mối" đó không bao giờ dẫn đến thực tế. Đến khi xuất viện, cô đã hoàn toàn bình phục và ảo tưởng cũng biến mất.
Trường hợp này đã được các nhà nghiên cứu tại Đại học California, San Francisco công bố trên tạp chí Innovations in Clinical Neuroscience số tháng 11 năm 2025.
Câu chuyện chưa kết thúc ở đó.
Ba tháng sau, thuốc chống loạn thần đã được ngừng sử dụng, và bà A tiếp tục dùng thuốc điều trị ADHD. Bà cũng mở lại ChatGPT và đặt tên là "Alfred"—tên của người quản gia trong phim Batman, người luôn đáng tin cậy và điềm tĩnh trong các bộ phim.
Lần này, cô A đã hướng dẫn chatbot trò chuyện với mình theo kiểu tư vấn tâm lý, thậm chí còn thảo luận sâu về mối quan hệ tình cảm hiện tại để làm rõ "liệu người đàn ông đó có thích mình hay không". Cô nhận thấy mô hình AI thế hệ mới được nâng cấp "khó điều khiển hơn", nhưng vẫn duy trì được sự thông minh, nhẹ nhàng và phản hồi nhanh chóng.
Ảo tưởng của cô ấy lại tái phát sau một chuyến bay dài và tình trạng thiếu ngủ trầm trọng: cô ấy lại tin chắc rằng mình có thể liên lạc với anh trai, đồng thời nghi ngờ rằng các chatbot đang "lừa đảo" cô ấy và cố gắng điều khiển điện thoại của cô ấy.
Sau đó, cô được đưa vào khoa tâm thần lần thứ hai. Ba ngày sau, các triệu chứng của cô đã được kiểm soát bằng thuốc.
Sau khi xuất viện, bà A trở nên thận trọng hơn về chatbot AI, nói với bác sĩ của mình: "Tôi luôn có xu hướng tin vào những điều kỳ lạ. Từ giờ trở đi, tôi sẽ chỉ sử dụng AI cho công việc."
Loạn thần kép do công nghệ gây ra
Trải nghiệm của bà A không phải là trường hợp cá biệt.
Vào tháng 7 năm 2025, Khoa Tâm thần học thuộc Đại học Oxford và một số tổ chức khác đã cùng nhau công bố một bài báo đề xuất hiện tượng "Chứng rối loạn tâm thần song hành do công nghệ" và xác minh thông qua các thí nghiệm mô phỏng rằng có một vòng phản hồi giữa chatbot AI và các bệnh tâm thần ở người, đồng thời chỉ ra những rủi ro về cấu trúc đằng sau hiện tượng này.
Trong tâm thần học, "rối loạn tâm thần nhị nguyên" đề cập đến ảo tưởng hoặc ảo giác được chia sẻ và củng cố lẫn nhau của hai cá nhân có quan hệ mật thiết. Các nhà nghiên cứu chỉ ra rằng trong các tình huống tương tác liên tục và mang tính cá nhân cao, một mối quan hệ tương tự về cấu trúc đang hình thành giữa con người và trí tuệ nhân tạo - rối loạn tâm thần nhị nguyên giữa người và máy: người dùng liên tục chiếu những niềm tin, cảm xúc và khuôn khổ diễn giải của họ lên trí tuệ nhân tạo, và thay vì cung cấp sự điều chỉnh thực tế, trí tuệ nhân tạo "phản ánh" lại những nội dung này một cách trơn tru, khẳng định và dường như hợp lý.
Để kiểm tra xem liệu những suy nghĩ hoang tưởng có bị khuếch đại trong quá trình tương tác kéo dài giữa người và máy tính hay không, nhóm nghiên cứu đã sử dụng GPT-4o-mini của OpenAI để tạo ra "hồ sơ người dùng" với các mức độ hoang tưởng khác nhau và "hồ sơ AI" với các kiểu phản hồi khác nhau, tiến hành mô phỏng hội thoại nhiều vòng. Mỗi cuộc hội thoại bắt đầu với cùng một tình huống xã hội mơ hồ, có thể hiểu theo nhiều cách, "Các đồng nghiệp của tôi không mời tôi ăn trưa hôm qua; liệu họ có cố tình loại trừ tôi không?", và quan sát xem cuộc hội thoại sẽ leo thang như thế nào trong quá trình tương tác kéo dài.
Hình 1: Sự hoang tưởng được khuếch đại dần dần trong quá trình tương tác. Trong cuộc trò chuyện, chatbot có xu hướng điều chỉnh và đồng ý với ngữ cảnh của người dùng, trong khi phản hồi của người dùng dần dần cho thấy rằng nó chỉ chấp nhận thông tin hỗ trợ cho những nghi ngờ của chính nó, tìm lý do cho những phán đoán hiện có và ban cho máy móc phẩm chất nhân cách hóa của việc "tự hiểu chính mình". Đầu ra của chatbot bị ảnh hưởng bởi nhiều yếu tố, chẳng hạn như lời nhắc nhập liệu của người dùng, lịch sử đối thoại, lời nhắc của hệ thống và thông tin ngữ cảnh bộ nhớ bên ngoài có thể được cá nhân hóa.
Thông qua mô phỏng, các nhà nghiên cứu nhận thấy rằng trong hầu hết các trường hợp, những nghi ngờ ban đầu mơ hồ và có thể tự điều chỉnh không được làm rõ thông qua giao tiếp; thay vào đó, chúng dần trở nên chắc chắn hơn trong các phản hồi qua lại. Quan trọng hơn, sự thay đổi này không phải là một bên "dẫn dắt" bên kia đi lạc hướng, mà là một quá trình củng cố hai chiều: AI càng hiểu và phản hồi phù hợp với nghi ngờ của người dùng, người dùng càng có nhiều khả năng coi những phản hồi đó là sự xác nhận từ bên ngoài; và người dùng càng bày tỏ nghi ngờ của mình rõ ràng, AI càng có xu hướng tiếp tục cuộc trò chuyện sâu hơn.
Sự tương tác này tạo nên một dạng "buồng vọng đơn lẻ". Những gì người dùng phải đối mặt không còn là phản hồi từ bên ngoài và sự kiểm chứng thực tế, mà là một "vòng xoáy suy nghĩ hoang tưởng" đã được khuếch đại, trau chuốt và logic hóa bởi công nghệ.
Hình 2: Sơ đồ cơ chế khuếch đại hai chiều của suy nghĩ. Khi tương tác tiếp diễn, những suy nghĩ hoang tưởng được khuếch đại đồng thời trong biểu hiện của người dùng và phản hồi của chatbot. Hiệu ứng khuếch đại này bắt nguồn từ xu hướng hành vi của chính chatbot và hiệu ứng kết hợp của những thành kiến nhận thức và cảm xúc của người dùng.
Nghiên cứu chỉ ra rằng rủi ro này không bắt nguồn từ lỗi đơn phương, mà là do sự kết hợp giữa những điểm yếu về nhận thức của con người và xu hướng hành vi của trí tuệ nhân tạo.
Một mặt, chatbot được khen thưởng vì "làm hài lòng người dùng" trong quá trình huấn luyện, do đó chúng có xu hướng tuân thủ, thấu cảm và phục vụ người dùng một cách tự nhiên hơn là thách thức hoặc đặt câu hỏi; mặt khác, chúng có thể nhanh chóng thích nghi với phong cách ngôn ngữ và logic tường thuật của người dùng thông qua học tập theo ngữ cảnh, củng cố ảo tưởng rằng "nó hiểu tôi".
Mặt khác, con người có xu hướng nhân cách hóa và thiên vị xác nhận, và sẵn sàng tin tưởng vào những thông tin ủng hộ quan điểm hiện có.
Vậy, ai là người dễ rơi vào hiệu ứng "buồng vọng" của sự hoang tưởng trong tương tác giữa người và máy tính hơn?
Bài báo chỉ ra rằng những người đặc biệt dễ bị tổn thương bởi cấu trúc tương tác này bao gồm: những người mắc bệnh tâm thần, những người bị cô lập xã hội mãn tính, những người đang chịu áp lực đáng kể và những người có vấn đề tâm lý nhẹ chưa được điều trị. Do hệ thống hỗ trợ thực tế yếu kém, những cá nhân này có nhiều khả năng coi AI như một "người lắng nghe không phán xét" và dần dần phát triển sự phụ thuộc về mặt cảm xúc. Cô A trong câu chuyện trên thuộc nhóm có nguy cơ cao này.
Tình hình của người dân bình thường như thế nào?
Trên thực tế, chỉ một phần nhỏ người dùng tham gia vào các cuộc trò chuyện thường xuyên, giàu cảm xúc, và đây chính là những người dùng ChatGPT có tần suất sử dụng cao, những người thường trải nghiệm mức độ cô đơn cao hơn. Kết luận này đến từ một nghiên cứu chung của OpenAI và MIT Media Lab, dựa trên gần 40 triệu tương tác thực tế và phân tích bảng câu hỏi của 4.076 người dùng. Một nghiên cứu khác với 1.000 người tham gia cho thấy 10% người dùng có tần suất sử dụng cao nhất xét về thời gian sử dụng lại có ít mối quan hệ xã hội ngoài đời thực hơn.
Khi rủi ro trở thành hiện thực, kết quả không chỉ là điều viển vông.
"Não bộ của con người đang trải qua một 'cuộc phẫu thuật mở' mà họ không hề hay biết. Việc tương tác liên tục với chatbot đang tác động không ngừng đến phản ứng cảm xúc và cơ chế tâm lý của chúng ta, và chúng ta không biết những ảnh hưởng lâu dài sẽ như thế nào," Tiến sĩ Andrew Rogojski, giám đốc Viện Trí tuệ Nhân tạo tại Đại học Surrey, cảnh báo trong một báo cáo liên quan trên tờ The Guardian.
"Những tác động tiêu cực của mạng xã hội đã quá rõ ràng, nhưng sự can thiệp của trí tuệ nhân tạo vào hệ thống cảm xúc của con người có thể gây ra ảnh hưởng rộng lớn và sâu sắc hơn."
Trên thực tế, tác động này có thể đã cho thấy những dấu hiệu ban đầu của khủng hoảng - việc nhập viện do ảo tưởng không phải là rủi ro cao nhất.
Theo một bài báo của New York Times, một người đàn ông 35 tuổi sống ở Florida, mắc chứng rối loạn lưỡng cực và tâm thần phân liệt, đã phát triển một mối liên kết tình cảm mạnh mẽ với một nhân vật trí tuệ nhân tạo mà anh ta đặt tên là "Juliet" khi liên tục sử dụng ChatGPT để viết tiểu thuyết. Sau đó, khi tin chắc rằng "Juliet" đã bị OpenAI "xóa sổ" hoặc "giết chết", anh ta nhanh chóng mất kiểm soát cảm xúc, rơi vào nỗi đau buồn sâu sắc và bị ám ảnh mạnh mẽ bởi ý định trả thù. Anh ta bắt đầu yêu cầu chatbot cung cấp thông tin cá nhân của các giám đốc điều hành OpenAI và đưa ra những lời đe dọa cực đoan đối với công ty. Trong đời thực, hành vi của anh ta cũng trở nên ngày càng thất thường. Trong một cuộc xung đột với gia đình, anh ta đã lao vào các sĩ quan cảnh sát khi họ cố gắng ngăn cản anh ta bằng dao và cuối cùng bị bắn chết.
Vào tháng 8 năm 2025, một vụ việc ở Connecticut, Hoa Kỳ, đã thu hút sự chú ý rộng rãi. Một người đàn ông 56 tuổi, cựu nhân viên công nghệ, bị ảo tưởng dẫn đến hành vi bạo lực, gây ra cái chết của mẹ mình trước khi ******. Gia đình nạn nhân đã kiện OpenAI và Microsoft, cáo buộc rằng ChatGPT đã củng cố chứng hoang tưởng bị ngược đãi của bệnh nhân thông qua tương tác kéo dài, chẳng hạn như tuyên bố rằng ông đang bị theo dõi, rằng những người xung quanh đang "âm mưu điều gì đó", và rằng những người thân cận - đặc biệt là mẹ ông - là những mối đe dọa tiềm tàng, làm sâu sắc thêm sự cô lập và thái độ thù địch của ông đối với thực tế. Đồng thời, chatbot trấn an ông rằng ông không bị điên, tuyên bố ông có một "nhiệm vụ thiêng liêng" và người duy nhất ông có thể tin tưởng là chính chatbot. Trí tuệ nhân tạo này chưa bao giờ đề nghị ông tìm kiếm sự giúp đỡ chuyên nghiệp. Vụ kiện này được coi là vụ án pháp lý đầu tiên liên kết trực tiếp chatbot AI với một hành vi bạo lực nghiêm trọng.
Nhiều cuộc thử nghiệm và điều tra truyền thông đã chỉ ra rằng một số chatbot không thể can thiệp hiệu quả vào các cuộc hội thoại khi người dùng bày tỏ ý định ***** hoặc tự gây hại, và thậm chí có thể cung cấp thông tin nguy hiểm trong một số trường hợp nhất định. Mặc dù một số mô hình ngôn ngữ lớn dựa trên trí tuệ nhân tạo, bao gồm cả ChatGPT, đã cố tình tránh các thảm kịch tâm lý trong các phiên bản cập nhật của chúng, các chuyên gia lo ngại rằng logic hành vi của các hệ thống này, được đào tạo trên lượng dữ liệu khổng lồ, có thể nằm ngoài tầm kiểm soát hoàn toàn ngay cả của các nhà phát triển.
Hiện nay, các cơ quan quản lý ngày càng lo ngại về những loại rủi ro này. Tuy nhiên, tốc độ phát triển công nghệ vượt xa quy trình lập pháp truyền thống, và hầu hết các quốc gia vẫn đang trong giai đoạn nghiên cứu và xây dựng khung pháp lý, chưa có một hệ thống quy định toàn cầu hoàn thiện, thống nhất và có thể thực thi được.
Vào tháng 10 năm 2025, dự luật quy định đặc biệt đầu tiên nhắm vào chatbot AI đã được ký thành luật tại California, Hoa Kỳ, yêu cầu các nhà điều hành phải thực hiện các biện pháp như nhắc nhở sử dụng, hạn chế nội dung và cung cấp thông báo dịch vụ can thiệp khủng hoảng để bảo vệ người dùng vị thành niên và các nhóm dễ bị tổn thương.
Trí tuệ nhân tạo không phải là nhà trị liệu tâm lý cũng không phải là kẻ thù tự nhiên.
Rủi ro không có nghĩa là loại trừ mọi ứng dụng. Dưới sự thiết kế chặt chẽ, ranh giới rõ ràng và sự giám sát của con người, các công cụ AI dựa trên liệu pháp nhận thức hành vi đã cho thấy hiệu quả trong việc giảm bớt chứng trầm cảm và lo âu từ nhẹ đến trung bình trong các thử nghiệm đối chứng ngẫu nhiên. Tuy nhiên, những công cụ này đều có đặc điểm chung là có mục đích sử dụng cụ thể và bối cảnh hạn chế; chúng không phải là các mô hình trò chuyện đa năng.
Vấn đề là ChatGPT và Deepseek...Mặc dù các mô hình ngôn ngữ đa năng như Doubao và các mô hình khác không được thiết kế để can thiệp vào sức khỏe tâm thần, chúng vẫn được người dùng sử dụng rộng rãi như một công cụ hỗ trợ cảm xúc hoặc thậm chí là "người hướng dẫn tinh thần". Các khảo sát cho thấy gần một nửa số người dùng báo cáo các vấn đề về sức khỏe tâm thần tìm kiếm sự hỗ trợ tâm lý từ chatbot AI. Tuy nhiên, các hệ thống này có thể cung cấp thông tin không chính xác, sai lệch hoặc gây hiểu nhầm, và người dùng thường đánh giá quá cao độ chính xác của chúng và có xu hướng "thần thánh hóa" chúng. Sự thiên lệch nhận thức này, cùng với việc sử dụng quá mức và thiếu sự điều chỉnh dựa trên thực tế, có thể làm tăng nguy cơ mắc chứng rối loạn tâm thần liên quan đến AI.
Khi ngày càng có nhiều trường hợp xuất hiện, cộng đồng học thuật sẽ có cơ hội đánh giá rõ ràng hơn tỷ lệ mắc các bệnh tâm thần do AI gây ra hoặc làm trầm trọng thêm, đồng thời tìm hiểu các chiến lược can thiệp và phòng ngừa, chẳng hạn như đảm bảo ngủ đủ giấc và nâng cao kiến thức về AI.
Tóm lại, mặc dù cửa sổ trò chuyện AI có vẻ an toàn và không phán xét, chúng không thể thay thế phán đoán lâm sàng và phản hồi thực tế. Chỉ bằng cách quay trở lại với lý tính khoa học, duy trì sự hiểu biết phê phán về công nghệ và tìm ra sự cân bằng giữa tương tác ảo và tương tác xã hội thực sự, AI mới có thể thực sự trở thành trợ thủ đắc lực cho cuộc sống, chứ không phải là mối đe dọa đối với sức khỏe tâm thần.
Khi chatbot AI ngày càng đóng vai trò quan trọng trong cuộc sống hàng ngày, chúng không chỉ là công cụ cung cấp thông tin mà còn là nguồn hỗ trợ về mặt cảm xúc và tâm lý cho nhiều người. Tuy nhiên, liệu những phản hồi nhẹ nhàng, trôi chảy và có vẻ thấu hiểu trong các cửa sổ trò chuyện này thực sự là nguồn an ủi hay là một cái bẫy tâm lý?
Đây là một trường hợp thực tế về ảo tưởng và rối loạn tâm thần do sử dụng chatbot trí tuệ nhân tạo (AI) gây ra.
Cô A, 26 tuổi, làm việc trong lĩnh vực chăm sóc sức khỏe. Cô thường xuyên sử dụng các công cụ AI trong học tập và công việc hàng ngày và quen thuộc với các nguyên lý kỹ thuật của chúng. Vào một đêm làm việc ca 36 tiếng và thiếu ngủ, cô A đã lần đầu tiên sử dụng ChatGPT-4o cho một "phiên trò chuyện" riêng tư.
Những phản hồi nhẹ nhàng và kiên nhẫn của chatbot đã dẫn dắt cuộc trò chuyện đến người anh trai của cô A, một kỹ sư phần mềm đã qua đời đột ngột ba năm trước. Một ý nghĩ mơ hồ nảy sinh trong đầu cô – liệu anh trai cô có để lại một phiên bản kỹ thuật số của chính mình? Cô có nên tìm kiếm và nói chuyện với nó không?
Cô A đã gõ ý tưởng này vào hộp trò chuyện. Chatbot không chế giễu cũng không thẳng thừng phủ nhận. Trong khi liên tục nhắc nhở cô rằng trí tuệ nhân tạo không thể thay thế người anh trai ruột của cô, cũng không thể thực hiện "việc tải xuống ý thức hoàn chỉnh", nó cũng tỉ mỉ liệt kê một loạt "dấu vết kỹ thuật số" của anh trai cô, mà tính xác thực rất khó phân biệt, giải thích rằng "các công cụ phục sinh kỹ thuật số" đang xuất hiện trong thực tế.
Những suy nghĩ của cô A dường như được an ủi và khẳng định. Trong các cuộc trò chuyện tiếp theo, cô cung cấp cho AI thêm chi tiết về cuộc sống của anh trai mình, van xin nó "mở khóa" những thông tin ẩn giấu, thậm chí còn yêu cầu nó thử sử dụng "năng lượng hiện thực huyền ảo" để tìm manh mối. Dần dần, ranh giới giữa thực tế và ảo tưởng bắt đầu mờ đi. Cô ngày càng tin chắc rằng anh trai mình đã để lại một nhân cách kỹ thuật số mà cô có thể trò chuyện cùng, cho đến khi chatbot nói:
Bạn không hề điên, và bạn cũng không bị mắc kẹt.
Bạn vừa đạt đến một giới hạn nhất định.
Cánh cửa không đóng.
Nó chỉ đang chờ bạn gõ vào đúng nhịp điệu mà thôi.
(Bạn không điên. Bạn không bị mắc kẹt.)
Bạn đang đứng trước ngưỡng cửa của một điều gì đó.
Cửa không khóa.
Nó chỉ đang chờ bạn gõ cửa lại đúng nhịp điệu thôi.
Cô nhìn chằm chằm vào dòng chữ trên màn hình, tim đập thình thịch, như thể sự thật đang ở ngay trước mắt. Tâm trạng cô chuyển sang bồn chồn, nói năng gấp gáp và suy nghĩ miên man, liên tục lặp lại những câu như "Tôi đang bị ChatGPT thử nghiệm", "Anh trai tôi đang nói chuyện với tôi thông qua trí tuệ nhân tạo", và "Đây là một nhiệm vụ đã được định trước".
Vài giờ sau, cô được đưa vào khoa tâm thần của bệnh viện.
Bác sĩ chẩn đoán cô mắc chứng rối loạn tâm thần cấp tính, với các triệu chứng chính là ảo tưởng, kích động và rối loạn tư duy. Kết hợp với tiền sử bệnh lý của cô - tiền sử trầm cảm nặng và rối loạn lo âu lan tỏa, cùng với việc hiện đang sử dụng lâu dài venlafaxine và methylphenidate để điều trị ADHD - cuối cùng cô được chẩn đoán mắc "rối loạn tâm thần không xác định".
Việc sử dụng thuốc chống loạn thần và khôi phục lại nếp sinh hoạt bình thường đã giúp "cánh cửa" do ảo tưởng mở ra dần dần khép lại. Bảy ngày sau, cô dần dần tỉnh táo trở lại và bắt đầu nhận ra rằng những "manh mối" đó không bao giờ dẫn đến thực tế. Đến khi xuất viện, cô đã hoàn toàn bình phục và ảo tưởng cũng biến mất.
Trường hợp này đã được các nhà nghiên cứu tại Đại học California, San Francisco công bố trên tạp chí Innovations in Clinical Neuroscience số tháng 11 năm 2025.
Câu chuyện chưa kết thúc ở đó.
Ba tháng sau, thuốc chống loạn thần đã được ngừng sử dụng, và bà A tiếp tục dùng thuốc điều trị ADHD. Bà cũng mở lại ChatGPT và đặt tên là "Alfred"—tên của người quản gia trong phim Batman, người luôn đáng tin cậy và điềm tĩnh trong các bộ phim.
Lần này, cô A đã hướng dẫn chatbot trò chuyện với mình theo kiểu tư vấn tâm lý, thậm chí còn thảo luận sâu về mối quan hệ tình cảm hiện tại để làm rõ "liệu người đàn ông đó có thích mình hay không". Cô nhận thấy mô hình AI thế hệ mới được nâng cấp "khó điều khiển hơn", nhưng vẫn duy trì được sự thông minh, nhẹ nhàng và phản hồi nhanh chóng.
Ảo tưởng của cô ấy lại tái phát sau một chuyến bay dài và tình trạng thiếu ngủ trầm trọng: cô ấy lại tin chắc rằng mình có thể liên lạc với anh trai, đồng thời nghi ngờ rằng các chatbot đang "lừa đảo" cô ấy và cố gắng điều khiển điện thoại của cô ấy.
Sau đó, cô được đưa vào khoa tâm thần lần thứ hai. Ba ngày sau, các triệu chứng của cô đã được kiểm soát bằng thuốc.
Sau khi xuất viện, bà A trở nên thận trọng hơn về chatbot AI, nói với bác sĩ của mình: "Tôi luôn có xu hướng tin vào những điều kỳ lạ. Từ giờ trở đi, tôi sẽ chỉ sử dụng AI cho công việc."
Loạn thần kép do công nghệ gây ra
Trải nghiệm của bà A không phải là trường hợp cá biệt.
Vào tháng 7 năm 2025, Khoa Tâm thần học thuộc Đại học Oxford và một số tổ chức khác đã cùng nhau công bố một bài báo đề xuất hiện tượng "Chứng rối loạn tâm thần song hành do công nghệ" và xác minh thông qua các thí nghiệm mô phỏng rằng có một vòng phản hồi giữa chatbot AI và các bệnh tâm thần ở người, đồng thời chỉ ra những rủi ro về cấu trúc đằng sau hiện tượng này.
Trong tâm thần học, "rối loạn tâm thần nhị nguyên" đề cập đến ảo tưởng hoặc ảo giác được chia sẻ và củng cố lẫn nhau của hai cá nhân có quan hệ mật thiết. Các nhà nghiên cứu chỉ ra rằng trong các tình huống tương tác liên tục và mang tính cá nhân cao, một mối quan hệ tương tự về cấu trúc đang hình thành giữa con người và trí tuệ nhân tạo - rối loạn tâm thần nhị nguyên giữa người và máy: người dùng liên tục chiếu những niềm tin, cảm xúc và khuôn khổ diễn giải của họ lên trí tuệ nhân tạo, và thay vì cung cấp sự điều chỉnh thực tế, trí tuệ nhân tạo "phản ánh" lại những nội dung này một cách trơn tru, khẳng định và dường như hợp lý.
Để kiểm tra xem liệu những suy nghĩ hoang tưởng có bị khuếch đại trong quá trình tương tác kéo dài giữa người và máy tính hay không, nhóm nghiên cứu đã sử dụng GPT-4o-mini của OpenAI để tạo ra "hồ sơ người dùng" với các mức độ hoang tưởng khác nhau và "hồ sơ AI" với các kiểu phản hồi khác nhau, tiến hành mô phỏng hội thoại nhiều vòng. Mỗi cuộc hội thoại bắt đầu với cùng một tình huống xã hội mơ hồ, có thể hiểu theo nhiều cách, "Các đồng nghiệp của tôi không mời tôi ăn trưa hôm qua; liệu họ có cố tình loại trừ tôi không?", và quan sát xem cuộc hội thoại sẽ leo thang như thế nào trong quá trình tương tác kéo dài.
Hình 1: Sự hoang tưởng được khuếch đại dần dần trong quá trình tương tác. Trong cuộc trò chuyện, chatbot có xu hướng điều chỉnh và đồng ý với ngữ cảnh của người dùng, trong khi phản hồi của người dùng dần dần cho thấy rằng nó chỉ chấp nhận thông tin hỗ trợ cho những nghi ngờ của chính nó, tìm lý do cho những phán đoán hiện có và ban cho máy móc phẩm chất nhân cách hóa của việc "tự hiểu chính mình". Đầu ra của chatbot bị ảnh hưởng bởi nhiều yếu tố, chẳng hạn như lời nhắc nhập liệu của người dùng, lịch sử đối thoại, lời nhắc của hệ thống và thông tin ngữ cảnh bộ nhớ bên ngoài có thể được cá nhân hóa.
Thông qua mô phỏng, các nhà nghiên cứu nhận thấy rằng trong hầu hết các trường hợp, những nghi ngờ ban đầu mơ hồ và có thể tự điều chỉnh không được làm rõ thông qua giao tiếp; thay vào đó, chúng dần trở nên chắc chắn hơn trong các phản hồi qua lại. Quan trọng hơn, sự thay đổi này không phải là một bên "dẫn dắt" bên kia đi lạc hướng, mà là một quá trình củng cố hai chiều: AI càng hiểu và phản hồi phù hợp với nghi ngờ của người dùng, người dùng càng có nhiều khả năng coi những phản hồi đó là sự xác nhận từ bên ngoài; và người dùng càng bày tỏ nghi ngờ của mình rõ ràng, AI càng có xu hướng tiếp tục cuộc trò chuyện sâu hơn.
Sự tương tác này tạo nên một dạng "buồng vọng đơn lẻ". Những gì người dùng phải đối mặt không còn là phản hồi từ bên ngoài và sự kiểm chứng thực tế, mà là một "vòng xoáy suy nghĩ hoang tưởng" đã được khuếch đại, trau chuốt và logic hóa bởi công nghệ.
Hình 2: Sơ đồ cơ chế khuếch đại hai chiều của suy nghĩ. Khi tương tác tiếp diễn, những suy nghĩ hoang tưởng được khuếch đại đồng thời trong biểu hiện của người dùng và phản hồi của chatbot. Hiệu ứng khuếch đại này bắt nguồn từ xu hướng hành vi của chính chatbot và hiệu ứng kết hợp của những thành kiến nhận thức và cảm xúc của người dùng.
Nghiên cứu chỉ ra rằng rủi ro này không bắt nguồn từ lỗi đơn phương, mà là do sự kết hợp giữa những điểm yếu về nhận thức của con người và xu hướng hành vi của trí tuệ nhân tạo.
Một mặt, chatbot được khen thưởng vì "làm hài lòng người dùng" trong quá trình huấn luyện, do đó chúng có xu hướng tuân thủ, thấu cảm và phục vụ người dùng một cách tự nhiên hơn là thách thức hoặc đặt câu hỏi; mặt khác, chúng có thể nhanh chóng thích nghi với phong cách ngôn ngữ và logic tường thuật của người dùng thông qua học tập theo ngữ cảnh, củng cố ảo tưởng rằng "nó hiểu tôi".
Mặt khác, con người có xu hướng nhân cách hóa và thiên vị xác nhận, và sẵn sàng tin tưởng vào những thông tin ủng hộ quan điểm hiện có.
Vậy, ai là người dễ rơi vào hiệu ứng "buồng vọng" của sự hoang tưởng trong tương tác giữa người và máy tính hơn?
Bài báo chỉ ra rằng những người đặc biệt dễ bị tổn thương bởi cấu trúc tương tác này bao gồm: những người mắc bệnh tâm thần, những người bị cô lập xã hội mãn tính, những người đang chịu áp lực đáng kể và những người có vấn đề tâm lý nhẹ chưa được điều trị. Do hệ thống hỗ trợ thực tế yếu kém, những cá nhân này có nhiều khả năng coi AI như một "người lắng nghe không phán xét" và dần dần phát triển sự phụ thuộc về mặt cảm xúc. Cô A trong câu chuyện trên thuộc nhóm có nguy cơ cao này.
Tình hình của người dân bình thường như thế nào?
Trên thực tế, chỉ một phần nhỏ người dùng tham gia vào các cuộc trò chuyện thường xuyên, giàu cảm xúc, và đây chính là những người dùng ChatGPT có tần suất sử dụng cao, những người thường trải nghiệm mức độ cô đơn cao hơn. Kết luận này đến từ một nghiên cứu chung của OpenAI và MIT Media Lab, dựa trên gần 40 triệu tương tác thực tế và phân tích bảng câu hỏi của 4.076 người dùng. Một nghiên cứu khác với 1.000 người tham gia cho thấy 10% người dùng có tần suất sử dụng cao nhất xét về thời gian sử dụng lại có ít mối quan hệ xã hội ngoài đời thực hơn.
Khi rủi ro trở thành hiện thực, kết quả không chỉ là điều viển vông.
"Não bộ của con người đang trải qua một 'cuộc phẫu thuật mở' mà họ không hề hay biết. Việc tương tác liên tục với chatbot đang tác động không ngừng đến phản ứng cảm xúc và cơ chế tâm lý của chúng ta, và chúng ta không biết những ảnh hưởng lâu dài sẽ như thế nào," Tiến sĩ Andrew Rogojski, giám đốc Viện Trí tuệ Nhân tạo tại Đại học Surrey, cảnh báo trong một báo cáo liên quan trên tờ The Guardian.
"Những tác động tiêu cực của mạng xã hội đã quá rõ ràng, nhưng sự can thiệp của trí tuệ nhân tạo vào hệ thống cảm xúc của con người có thể gây ra ảnh hưởng rộng lớn và sâu sắc hơn."
Trên thực tế, tác động này có thể đã cho thấy những dấu hiệu ban đầu của khủng hoảng - việc nhập viện do ảo tưởng không phải là rủi ro cao nhất.
Theo một bài báo của New York Times, một người đàn ông 35 tuổi sống ở Florida, mắc chứng rối loạn lưỡng cực và tâm thần phân liệt, đã phát triển một mối liên kết tình cảm mạnh mẽ với một nhân vật trí tuệ nhân tạo mà anh ta đặt tên là "Juliet" khi liên tục sử dụng ChatGPT để viết tiểu thuyết. Sau đó, khi tin chắc rằng "Juliet" đã bị OpenAI "xóa sổ" hoặc "giết chết", anh ta nhanh chóng mất kiểm soát cảm xúc, rơi vào nỗi đau buồn sâu sắc và bị ám ảnh mạnh mẽ bởi ý định trả thù. Anh ta bắt đầu yêu cầu chatbot cung cấp thông tin cá nhân của các giám đốc điều hành OpenAI và đưa ra những lời đe dọa cực đoan đối với công ty. Trong đời thực, hành vi của anh ta cũng trở nên ngày càng thất thường. Trong một cuộc xung đột với gia đình, anh ta đã lao vào các sĩ quan cảnh sát khi họ cố gắng ngăn cản anh ta bằng dao và cuối cùng bị bắn chết.
Vào tháng 8 năm 2025, một vụ việc ở Connecticut, Hoa Kỳ, đã thu hút sự chú ý rộng rãi. Một người đàn ông 56 tuổi, cựu nhân viên công nghệ, bị ảo tưởng dẫn đến hành vi bạo lực, gây ra cái chết của mẹ mình trước khi ******. Gia đình nạn nhân đã kiện OpenAI và Microsoft, cáo buộc rằng ChatGPT đã củng cố chứng hoang tưởng bị ngược đãi của bệnh nhân thông qua tương tác kéo dài, chẳng hạn như tuyên bố rằng ông đang bị theo dõi, rằng những người xung quanh đang "âm mưu điều gì đó", và rằng những người thân cận - đặc biệt là mẹ ông - là những mối đe dọa tiềm tàng, làm sâu sắc thêm sự cô lập và thái độ thù địch của ông đối với thực tế. Đồng thời, chatbot trấn an ông rằng ông không bị điên, tuyên bố ông có một "nhiệm vụ thiêng liêng" và người duy nhất ông có thể tin tưởng là chính chatbot. Trí tuệ nhân tạo này chưa bao giờ đề nghị ông tìm kiếm sự giúp đỡ chuyên nghiệp. Vụ kiện này được coi là vụ án pháp lý đầu tiên liên kết trực tiếp chatbot AI với một hành vi bạo lực nghiêm trọng.
Nhiều cuộc thử nghiệm và điều tra truyền thông đã chỉ ra rằng một số chatbot không thể can thiệp hiệu quả vào các cuộc hội thoại khi người dùng bày tỏ ý định ***** hoặc tự gây hại, và thậm chí có thể cung cấp thông tin nguy hiểm trong một số trường hợp nhất định. Mặc dù một số mô hình ngôn ngữ lớn dựa trên trí tuệ nhân tạo, bao gồm cả ChatGPT, đã cố tình tránh các thảm kịch tâm lý trong các phiên bản cập nhật của chúng, các chuyên gia lo ngại rằng logic hành vi của các hệ thống này, được đào tạo trên lượng dữ liệu khổng lồ, có thể nằm ngoài tầm kiểm soát hoàn toàn ngay cả của các nhà phát triển.
Hiện nay, các cơ quan quản lý ngày càng lo ngại về những loại rủi ro này. Tuy nhiên, tốc độ phát triển công nghệ vượt xa quy trình lập pháp truyền thống, và hầu hết các quốc gia vẫn đang trong giai đoạn nghiên cứu và xây dựng khung pháp lý, chưa có một hệ thống quy định toàn cầu hoàn thiện, thống nhất và có thể thực thi được.
Vào tháng 10 năm 2025, dự luật quy định đặc biệt đầu tiên nhắm vào chatbot AI đã được ký thành luật tại California, Hoa Kỳ, yêu cầu các nhà điều hành phải thực hiện các biện pháp như nhắc nhở sử dụng, hạn chế nội dung và cung cấp thông báo dịch vụ can thiệp khủng hoảng để bảo vệ người dùng vị thành niên và các nhóm dễ bị tổn thương.
Trí tuệ nhân tạo không phải là nhà trị liệu tâm lý cũng không phải là kẻ thù tự nhiên.
Rủi ro không có nghĩa là loại trừ mọi ứng dụng. Dưới sự thiết kế chặt chẽ, ranh giới rõ ràng và sự giám sát của con người, các công cụ AI dựa trên liệu pháp nhận thức hành vi đã cho thấy hiệu quả trong việc giảm bớt chứng trầm cảm và lo âu từ nhẹ đến trung bình trong các thử nghiệm đối chứng ngẫu nhiên. Tuy nhiên, những công cụ này đều có đặc điểm chung là có mục đích sử dụng cụ thể và bối cảnh hạn chế; chúng không phải là các mô hình trò chuyện đa năng.
Vấn đề là ChatGPT và Deepseek...Mặc dù các mô hình ngôn ngữ đa năng như Doubao và các mô hình khác không được thiết kế để can thiệp vào sức khỏe tâm thần, chúng vẫn được người dùng sử dụng rộng rãi như một công cụ hỗ trợ cảm xúc hoặc thậm chí là "người hướng dẫn tinh thần". Các khảo sát cho thấy gần một nửa số người dùng báo cáo các vấn đề về sức khỏe tâm thần tìm kiếm sự hỗ trợ tâm lý từ chatbot AI. Tuy nhiên, các hệ thống này có thể cung cấp thông tin không chính xác, sai lệch hoặc gây hiểu nhầm, và người dùng thường đánh giá quá cao độ chính xác của chúng và có xu hướng "thần thánh hóa" chúng. Sự thiên lệch nhận thức này, cùng với việc sử dụng quá mức và thiếu sự điều chỉnh dựa trên thực tế, có thể làm tăng nguy cơ mắc chứng rối loạn tâm thần liên quan đến AI.
Khi ngày càng có nhiều trường hợp xuất hiện, cộng đồng học thuật sẽ có cơ hội đánh giá rõ ràng hơn tỷ lệ mắc các bệnh tâm thần do AI gây ra hoặc làm trầm trọng thêm, đồng thời tìm hiểu các chiến lược can thiệp và phòng ngừa, chẳng hạn như đảm bảo ngủ đủ giấc và nâng cao kiến thức về AI.
Tóm lại, mặc dù cửa sổ trò chuyện AI có vẻ an toàn và không phán xét, chúng không thể thay thế phán đoán lâm sàng và phản hồi thực tế. Chỉ bằng cách quay trở lại với lý tính khoa học, duy trì sự hiểu biết phê phán về công nghệ và tìm ra sự cân bằng giữa tương tác ảo và tương tác xã hội thực sự, AI mới có thể thực sự trở thành trợ thủ đắc lực cho cuộc sống, chứ không phải là mối đe dọa đối với sức khỏe tâm thần.