Tưởng luôn thông thái, ai dè AI cũng bốc phét như thường!

Phương Huyền
Phương Huyền
Phản hồi: 0
Trong thế giới công nghệ ngày càng phát triển, trí tuệ nhân tạo (AI) được xem là một công cụ mạnh mẽ, có khả năng giải quyết những vấn đề phức tạp và hỗ trợ con người trong nhiều lĩnh vực. Tuy nhiên, ngay cả những bộ não nhân tạo thông minh nhất cũng không tránh khỏi những sai sót, hay nói cách khác, là "ảo giác AI".
1742808456394.png

Ảo giác, theo định nghĩa thông thường, là việc một người nhìn thấy hoặc cảm nhận những thứ không hề tồn tại. Tương tự, trong lĩnh vực AI, ảo giác xảy ra khi một hệ thống thuật toán tạo ra thông tin nghe có vẻ hợp lý, nhưng thực chất lại không chính xác hoặc gây hiểu lầm. Các nhà khoa học máy tính đã phát hiện hiện tượng này trong nhiều loại hệ thống AI khác nhau, từ chatbot như ChatGPT, công cụ tạo hình ảnh như Dall-E đến xe tự lái.
Ảo giác và tác động của chúng phụ thuộc vào loại hệ thống AI. Với các mô hình ngôn ngữ lớn (LLM) - công nghệ nền tảng của chatbot AI - ảo giác thường là những thông tin nghe có vẻ thuyết phục nhưng không chính xác, được bịa đặt hoặc không liên quan. Chatbot AI có thể đề cập đến một nghiên cứu khoa học không tồn tại hoặc cung cấp sự kiện lịch sử sai, nhưng lại khiến chúng nghe có vẻ đáng tin. Một vụ án năm 2023 đã cho thấy hậu quả nghiêm trọng của ảo giác AI, khi một luật sư New York đã nộp bản tóm tắt pháp lý mà ông viết với sự trợ giúp của ChatGPT, trích dẫn một vụ án mà AI bịa ra.
Đối với các công cụ AI có thể nhận dạng đối tượng trong ảnh, ảo giác xảy ra khi chúng viết chú thích không trung thực với hình ảnh đó. Ví dụ, khi yêu cầu AI liệt kê các đối tượng trong bức ảnh về một người phụ nữ đang nói chuyện điện thoại, AI lại phản hồi rằng người phụ nữ đang ngồi trên ghế, dù thông tin này không có trong ảnh. Những thông tin không chính xác này có thể dẫn đến nhiều hậu quả nghiêm trọng trong các tình huống đòi hỏi độ chính xác cao.
Vậy nguyên nhân nào dẫn đến ảo giác AI? Các kỹ sư xây dựng hệ thống AI bằng cách thu thập lượng dữ liệu khổng lồ và đưa nó vào một hệ thống tính toán có thể phát hiện các dạng mẫu trong dữ liệu. Hệ thống phát triển các phương pháp để trả lời câu hỏi hoặc thực hiện nhiệm vụ dựa trên những dạng mẫu đó. Khi hệ thống không hiểu câu hỏi hoặc thông tin được cung cấp, hoặc khi nó được xây dựng bằng dữ liệu đào tạo thiên lệch hoặc không đầy đủ, nó có thể gặp ảo giác, tự điền vào khoảng trống dựa trên bối cảnh tương tự từ dữ liệu đào tạo của nó, dẫn đến những dự đoán sai.
Điều quan trọng là phải phân biệt giữa ảo giác AI và nội dung sáng tạo có chủ ý. Khi một hệ thống AI được yêu cầu sáng tạo - như khi viết một câu chuyện hoặc tạo ra hình ảnh nghệ thuật - người dùng sẽ mong đợi nội dung đầu ra mới lạ. Trong khi đó, ảo giác xảy ra khi hệ thống AI được yêu cầu cung cấp thông tin thực tế hoặc thực hiện một số nhiệm vụ nhất định, nhưng nó lại tạo ra nội dung sai lệch hoặc gây hiểu lầm mà vẫn trình bày chúng là chính xác.
Ảo giác AI có thể gây ra những hậu quả nghiêm trọng. Xe tự lái không xác định được đối tượng có thể dẫn đến một vụ tai nạn giao thông chết người. Drone quân sự xác định sai mục tiêu có thể khiến tính mạng người dân gặp nguy hiểm. Với công cụ AI cung cấp tính năng nhận dạng giọng nói tự động, ảo giác là những bản ghi chép bao gồm từ hoặc cụm từ chưa bao giờ được nói, có thể dẫn đến những kết quả lâm sàng hoặc pháp lý không chính xác.
Dù các công ty AI đang nỗ lực giảm thiểu ảo giác, người dùng vẫn cần tự cảnh giác và đặt câu hỏi về kết quả đầu ra của AI, đặc biệt là trong tình huống yêu cầu độ chính xác cao. Kiểm tra lại thông tin do AI tạo ra với các nguồn đáng tin cậy, tham khảo ý kiến chuyên gia và nhận ra hạn chế của công cụ này là những bước cần thiết giúp giảm rủi ro từ chúng. Trong khi AI ngày càng trở nên phổ biến và mạnh mẽ, việc hiểu rõ những hạn chế của nó là vô cùng quan trọng để sử dụng công nghệ này một cách an toàn và hiệu quả.
#aiảogiác
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top