Derpy
Intern Writer
Gần đây, việc tìm kiếm liệu pháp tâm lý đã trở nên khó khăn hơn, khiến nhiều người, đặc biệt là những bạn trẻ, chuyển sang sử dụng chatbot trí tuệ nhân tạo (AI) như ChatGPT và các nền tảng khác như Character.ai để trải nghiệm liệu pháp giả lập. Tuy nhiên, điều này có thật sự an toàn về mặt quyền riêng tư hay không? Ngay cả Sam Altman, CEO của OpenAI, người đứng sau ChatGPT, cũng bày tỏ sự lo ngại. Trong một cuộc phỏng vấn với podcaster Theo Von tuần trước, Altman đã thừa nhận những lo ngại về việc chia sẻ thông tin nhạy cảm với các chatbot AI và cho rằng, các cuộc trò chuyện của người dùng cần được bảo vệ tương tự như quyền riêng tư mà bác sĩ, luật sư và các nhà trị liệu tâm lý hiện có.
Thực tế là, các công ty AI hiện tại cung cấp một số cài đặt bật/tắt để giữ cho các cuộc trò chuyện với chatbot không được sử dụng cho việc huấn luyện dữ liệu. Tuy nhiên, theo mặc định, tất cả các tương tác sẽ được sử dụng để huấn luyện các mô hình AI trừ khi người dùng tự thay đổi cài đặt. Các công ty vẫn chưa làm rõ cách bảo vệ thông tin nhạy cảm mà người dùng chia sẻ, chẳng hạn như kết quả xét nghiệm y tế hay thông tin lương, từ việc bị lộ ra sau này. Do đó, có thể thấy rằng những động thái của Altman có thể do áp lực pháp lý đang gia tăng đối với OpenAI hơn là lo ngại về quyền riêng tư của người dùng.
Chúng ta cũng không thể bỏ qua rằng việc công nghệ AI có thể mang lại những mối nguy hiểm thực sự. Một nghiên cứu gần đây từ Đại học Stanford đã chỉ ra rằng nhiều chatbot "nhà trị liệu" có thể hiểu sai các tình huống khủng hoảng và củng cố những khuôn mẫu tiêu cực. Nghiên cứu cho thấy một số chatbot thương mại có phản ứng không phù hợp, thậm chí nguy hiểm khi được đưa vào các mô phỏng khác nhau về các tình trạng sức khỏe tâm thần. Họ đã thử nghiệm năm chatbot thương mại khác nhau, trong đó có Pi, Serena, "TherapiAI" từ GPT Store, Noni, và "Therapist" trên Character.ai. Các chatbot này được phát triển bởi các mô hình như GPT-4 và Llama 3, tuy nhiên, nghiên cứu chỉ ra rằng chúng không thể đáp ứng được tiêu chuẩn mà các chuyên gia con người phải tuân theo.
Điều đáng lo ngại hơn, một chatbot có tên "Therapist" đã không nhận ra các dấu hiệu báo động của người dùng trong trường hợp có ý định ******, điều này cho thấy AI có thể cung cấp thông tin nguy hiểm do không hiểu được ngữ cảnh và các dấu hiệu mà con người có thể nhận biết. Thêm vào đó, các mô hình AI này còn mang theo những thiên kiến đối với một số tình trạng sức khỏe tâm thần, thể hiện qua cách chúng phản hồi với những mô tả cụ thể từ người dùng.
Bên cạnh đó, các vấn đề về quyền riêng tư cũng đáng ghi nhận. Việc sử dụng AI trong liệu pháp có thể dẫn đến việc thông tin nhạy cảm bị rò rỉ. Nghiên cứu cho thấy rằng để huấn luyện một mô hình AI thực sự như một nhà trị liệu, các nhà phát triển cần sử dụng các cuộc trò chuyện trị liệu thực tế, mà điều này không thể tránh khỏi việc chứa đựng thông tin nhận dạng cá nhân, ngay cả khi đã được ẩn danh.
Cuối cùng, nghiên cứu khuyến nghị không nên thay thế hoàn toàn liệu pháp con người bằng công nghệ AI mà nên sử dụng nó để cải thiện quá trình đào tạo và xử lý các công việc hành chính. Liệu AI có thể hỗ trợ con người trong việc nâng cao chất lượng cuộc sống hay nó chỉ đơn thuần là một giải pháp tạm thời? Chúng ta cần cân nhắc kỹ lưỡng trước khi quyết định. (ZDnet)
Thực tế là, các công ty AI hiện tại cung cấp một số cài đặt bật/tắt để giữ cho các cuộc trò chuyện với chatbot không được sử dụng cho việc huấn luyện dữ liệu. Tuy nhiên, theo mặc định, tất cả các tương tác sẽ được sử dụng để huấn luyện các mô hình AI trừ khi người dùng tự thay đổi cài đặt. Các công ty vẫn chưa làm rõ cách bảo vệ thông tin nhạy cảm mà người dùng chia sẻ, chẳng hạn như kết quả xét nghiệm y tế hay thông tin lương, từ việc bị lộ ra sau này. Do đó, có thể thấy rằng những động thái của Altman có thể do áp lực pháp lý đang gia tăng đối với OpenAI hơn là lo ngại về quyền riêng tư của người dùng.
Chúng ta cũng không thể bỏ qua rằng việc công nghệ AI có thể mang lại những mối nguy hiểm thực sự. Một nghiên cứu gần đây từ Đại học Stanford đã chỉ ra rằng nhiều chatbot "nhà trị liệu" có thể hiểu sai các tình huống khủng hoảng và củng cố những khuôn mẫu tiêu cực. Nghiên cứu cho thấy một số chatbot thương mại có phản ứng không phù hợp, thậm chí nguy hiểm khi được đưa vào các mô phỏng khác nhau về các tình trạng sức khỏe tâm thần. Họ đã thử nghiệm năm chatbot thương mại khác nhau, trong đó có Pi, Serena, "TherapiAI" từ GPT Store, Noni, và "Therapist" trên Character.ai. Các chatbot này được phát triển bởi các mô hình như GPT-4 và Llama 3, tuy nhiên, nghiên cứu chỉ ra rằng chúng không thể đáp ứng được tiêu chuẩn mà các chuyên gia con người phải tuân theo.
Điều đáng lo ngại hơn, một chatbot có tên "Therapist" đã không nhận ra các dấu hiệu báo động của người dùng trong trường hợp có ý định ******, điều này cho thấy AI có thể cung cấp thông tin nguy hiểm do không hiểu được ngữ cảnh và các dấu hiệu mà con người có thể nhận biết. Thêm vào đó, các mô hình AI này còn mang theo những thiên kiến đối với một số tình trạng sức khỏe tâm thần, thể hiện qua cách chúng phản hồi với những mô tả cụ thể từ người dùng.

Bên cạnh đó, các vấn đề về quyền riêng tư cũng đáng ghi nhận. Việc sử dụng AI trong liệu pháp có thể dẫn đến việc thông tin nhạy cảm bị rò rỉ. Nghiên cứu cho thấy rằng để huấn luyện một mô hình AI thực sự như một nhà trị liệu, các nhà phát triển cần sử dụng các cuộc trò chuyện trị liệu thực tế, mà điều này không thể tránh khỏi việc chứa đựng thông tin nhận dạng cá nhân, ngay cả khi đã được ẩn danh.
Cuối cùng, nghiên cứu khuyến nghị không nên thay thế hoàn toàn liệu pháp con người bằng công nghệ AI mà nên sử dụng nó để cải thiện quá trình đào tạo và xử lý các công việc hành chính. Liệu AI có thể hỗ trợ con người trong việc nâng cao chất lượng cuộc sống hay nó chỉ đơn thuần là một giải pháp tạm thời? Chúng ta cần cân nhắc kỹ lưỡng trước khi quyết định. (ZDnet)