Chúng ta có đang quá tin vào AI mà quên mất một bước quan trọng?

T
Trương Quang
Phản hồi: 0
Bạn có bao giờ thử tìm thông tin quan trọng bằng AI rồi chợt nhận ra mình không chắc nó đúng hay sai chưa?
1763527329691.png

AI đang dần thay thế cách tìm kiếm truyền thống, nhưng câu chuyện đằng sau độ chính xác lại phức tạp hơn rất nhiều so với những gì chúng ta thường hình dung. Với doanh nghiệp, đặc biệt là tài chính và pháp lý, độ lệch chỉ một chi tiết nhỏ có thể tạo ra hậu quả lớn hơn chúng ta tưởng, kể cả với một công ty Việt Nam đang muốn mở rộng hoặc kiểm soát rủi ro.

Khi niềm tin vượt trước độ chính xác​

Một nửa người dùng hiện nay tìm kiếm thông tin qua AI, và nhiều người tin rằng nó quan trọng hơn cả Google hay các công cụ web truyền thống. Tâm lý quen tay, tin tưởng và tiện lợi khiến nhân viên chắc chắn sẽ dùng AI cho công việc, chứ không chỉ cho đời sống cá nhân.

Vấn đề nằm ở chỗ niềm tin này lại không tương xứng với chất lượng thông tin mà các mô hình AI cung cấp. Một khảo sát lớn ở Anh cho thấy gần một nửa người dùng tin vào câu trả lời ở mức độ cao, nhưng khi soi kỹ thì nhiều câu trả lời lại thiếu chi tiết hoặc sai lệch. Điều này đặc biệt nguy hiểm trong bối cảnh tài chính, luật pháp và quyền người tiêu dùng.

Một cuộc thử nghiệm với 40 câu hỏi phức tạp cho thấy hiệu suất các công cụ khác nhau chênh lệch khá lớn. Perplexity đạt cao nhất 71%, Google Gemini AI Overviews đạt 70%. Trong khi đó Meta chỉ được 55%, còn ChatGPT dù phổ biến đạt 64% và xếp gần cuối. Sự khác biệt giữa mức độ phổ biến và mức độ chính xác này là lời nhắc quan trọng: dùng nhiều không đồng nghĩa với dùng an toàn.

Khi được hỏi về khoản trợ cấp ISA hằng năm trị giá 25.000 bảng Anh, ChatGPT và Copilot không phát hiện ra lỗi cố ý trong câu hỏi mà lại đưa lời khuyên có nguy cơ vi phạm quy định. Những công cụ khác như Gemini hay Perplexity có thể phát hiện lỗi, nhưng sự thiếu nhất quán cho thấy doanh nghiệp không thể chỉ dựa vào một nguồn duy nhất.

Trong lĩnh vực pháp lý, AI dễ nhầm lẫn luật lệ theo vùng lãnh thổ, ví dụ Scotland khác với Anh và Wales. AI cũng rất ít khi khuyên người dùng tìm chuyên gia, thậm chí đưa ra lời khuyên tự tin quá mức, như đề nghị giữ lại khoản thanh toán trong tranh chấp với nhà thầu, điều mà giới chuyên môn cảnh báo có thể khiến bạn vi phạm hợp đồng.

Lỗ hổng nguồn thông tin và rủi ro ngầm​

Một rủi ro khác mà các công cụ AI thường gặp là trích dẫn nguồn không rõ ràng, thậm chí không tồn tại. Có trường hợp khi hỏi về mã số thuế, ChatGPT và Perplexity lại dẫn người dùng đến các công ty hoàn thuế thu phí cao thay vì liên kết chính thức của HMRC. Nếu đặt tình huống này vào doanh nghiệp, nhất là trong mua sắm dịch vụ, thuật toán có thể dẫn nhân viên đến các nhà cung cấp không phù hợp hoặc tốn kém hơn.

Các hãng công nghệ thừa nhận hạn chế. Microsoft nhấn mạnh rằng Copilot chỉ tổng hợp thông tin chứ không phải nguồn đáng tin cậy. OpenAI cũng cho biết toàn ngành đang cố gắng cải thiện độ chính xác, và GPT-5 là mô hình tốt nhất họ từng xây dựng, nhưng vẫn cần người dùng xác minh.

Doanh nghiệp cần gì để giảm rủi ro?​

Cấm AI không phải là giải pháp, vì nhân viên sẽ tìm cách dùng ngầm, khiến mọi thứ khó kiểm soát hơn. Con đường đúng đắn là xây dựng quy trình và chính sách rõ ràng.

Doanh nghiệp cần đặt ra ba nguyên tắc:

Một là đặt câu hỏi rõ ràng. AI còn đang học cách hiểu lời nhắc, nên câu hỏi mơ hồ dễ sinh dữ liệu rủi ro. Khi cần thông tin pháp lý, người hỏi phải nêu rõ phạm vi, ví dụ “Anh và xứ Wales”.

Hai là yêu cầu xem nguồn. Không nên dựa vào một câu trả lời duy nhất. Với các chủ đề rủi ro cao, nhân viên cần so sánh trên nhiều công cụ hoặc đối chiếu bằng nguồn chính thức. Những công cụ hiển thị trực tiếp liên kết gốc như Gemini AI Overviews tỏ ra thuận lợi hơn cho việc kiểm tra.

Ba là luôn có ý kiến thứ hai từ con người. Với tài chính, luật pháp hoặc y tế, AI chỉ nên được xem như bước tham khảo ban đầu. Quyết định quan trọng vẫn cần chuyên gia giám sát và xác nhận.

AI ngày càng tốt hơn, tìm kiếm thông minh hơn, nhưng chính cuộc điều tra này nhắc chúng ta rằng khoảng cách giữa tiện lợi và rủi ro vẫn còn lớn. Đối với doanh nghiệp, sự khác biệt giữa hiệu quả và sai lầm đôi khi chỉ nằm ở một bước xác minh cuối cùng. (artificialintelligence)
Đọc chi tiết tại đây: https://www.artificialintelligence-...ks-mitigating-business-data-accuracy-threats/
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2NodW5nLXRhLWNvLWRhbmctcXVhLXRpbi12YW8tYWktbWEtcXVlbi1tYXQtbW90LWJ1b2MtcXVhbi10cm9uZy43NDA5Ni8=
Top