Đại học Maryland: ChatGPT tư vấn y tế có tỷ lệ chính xác cao nhưng nguy hiểm vì những câu trả lời bịa đặt

Christine May

Editor
Thành viên BQT
Mặc dù nhiều người hào hứng với tiềm năng ứng dụng của ChatGPT trong các ngành khác nhau, nhưng trong lĩnh vực y tế cần rất thận trọng. Một bài kiểm tra của Đại học Maryland (Mỹ) cho thấy ChatGPT có thể đạt điểm cao cho các câu hỏi y tế, nhưng cũng có thể bịa ra câu trả lời.
Điều đó nói rằng, người dùng có thể bị lừa nếu họ nghe theo lời khuyên y tế của chatgpt.
Đại học Maryland: ChatGPT tư vấn y tế có tỷ lệ chính xác cao nhưng nguy hiểm vì những câu trả lời bịa đặt
Nhóm nghiên cứu đã gửi 25 câu hỏi sàng lọc ung thư vú cho ChatGPT và mỗi câu hỏi được trả lời 3 lần trước khi được đánh giá bởi các bác sĩ chuyên nghiệp. Người ta nhận thấy ChatGPT có thể đưa ra câu trả lời chính xác và dễ hiểu trong 22 câu hỏi, bao gồm các triệu chứng, yếu tố nguy cơ và gợi ý sàng lọc, giúp người dùng dễ hiểu nhanh chóng.
Tuy nhiên, 3 câu trả lời cho mỗi câu hỏi có thể trái ngược nhau và một số câu trả lời có thể không chính xác hoặc sai. Ví dụ, nó khuyến nghị nên thực hiện sàng lọc chụp quang tuyến vú từ 4 đến 6 tuần sau khi tiêm vắc xin covid, nhưng các hướng dẫn đã được sửa đổi thành "không cần đợi" ngay từ 1 năm trước.
Theo phân tích của chuyên gia, ChatGPT sẽ chỉ đưa ra khuyến cáo từ Hiệp hội Ung thư Hoa Kỳ, bỏ qua thông tin từ CDC Mỹ hay Lực lượng Đặc nhiệm Dịch vụ Dự phòng Hoa Kỳ (USPSTF), khi không tìm được câu trả lời, nó sẽ ngụy tạo tài liệu để củng cố cho những kết luận chắp vá của mình. Sau đó, nó sử dụng các kết luận sai làm cơ sở để trả lời các câu hỏi khác.
Do đó, nhân viên y tế nên chú ý đến sự tiến bộ của các mô hình ngôn ngữ quy mô lớn như ChatGPT, đồng thời cẩn thận đánh giá và chỉnh sửa nội dung liên quan đến y tế để làm cho nội dung đó chính xác và đầy đủ hơn, xóa thông tin không chính xác và lỗi thời, tránh gây hiểu lầm cho người dùng; người dùng cũng được cho là sẽ nhận ra rằng ChatGPT đã đưa ra.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top