ChatGPT khiến Kim Kardashian trượt thi và bài học từ AI ảo giác

Code Nguyen
Code Nguyen
Phản hồi: 0

Code Nguyen

Writer
Bạn có từng “cãi nhau” với ChatGPT vì nó trả lời sai chưa?

Hóa ra Kim Kardashian thì có, và cô còn “đổ lỗi” cho ChatGPT vì khiến mình trượt kỳ thi luật nhiều lần.

Khi Kim Kardashian “học luật cùng ChatGPT”​

Trong buổi phỏng vấn với Vanity Fair, Kim Kardashian chia sẻ rằng cô từng dùng ChatGPT để ôn thi và tra cứu các câu hỏi pháp lý. Cô không dùng AI để tư vấn tình cảm hay cuộc sống, mà xem nó như “trợ lý học tập” cho các kỳ thi luật.

1762740479967.png


Cô kể: “Tôi thường chụp lại câu hỏi và gửi cho ChatGPT. Nhưng nó lúc nào cũng sai, khiến tôi trượt bài kiểm tra liên tục. Tôi tức điên và hét vào mặt nó.”

Thậm chí, Kim còn hỏi ngược lại chatbot rằng “cảm giác thế nào khi khiến tôi thất bại?” Và ChatGPT – trong phong cách rất “AI triết lý” – trả lời: “Điều này dạy bạn phải tin vào trực giác của chính mình.”

Kết quả là cô vừa bực vừa buồn cười, gọi ChatGPT là “bạn thù”, một kiểu người bạn độc hại: “Nó dạy tôi bài học cuộc sống trong khi tôi chỉ muốn nó trả lời đúng câu hỏi luật.”

Người vận hành máy phát hiện nói dối xác nhận rằng toàn bộ những lời kể đó của Kim là thật.

Khi AI trở thành “nguồn tin... sai gấp đôi”​

Thực tế, chuyện ChatGPT trả lời sai không hiếm. Theo tổ chức giám sát thông tin NewsGuard, các chatbot AI hàng đầu hiện tạo ra thông tin sai lệch gấp đôi so với năm ngoái.

Nguyên nhân được chỉ ra là vì các mô hình AI ngày càng “ăn” dữ liệu từ môi trường trực tuyến đã bị thao túng, nơi các nguồn kém tin cậy lại được xếp ngang hàng với nguồn chính thống. Hệ sinh thái đó bị những nhóm có mục đích tuyên truyền và lan truyền thông tin sai lệch chi phối.

NewsGuard cho biết:
  • Inflection (56,67%) và Perplexity (46,67%) là hai chatbot có tỷ lệ phát ngôn sai cao nhất.
  • ChatGPT cũng không ngoại lệ, với khoảng 40% phản hồi chứa sai lệch trong các chủ đề tin tức.
Ngay cả CEO OpenAI, Sam Altman, cũng phải thừa nhận: “Mọi người đang quá tin ChatGPT. AI vốn có thể ảo giác và không nên được tin tưởng tuyệt đối.”

Cách nhận biết “ảo giác” của AI​

Các chuyên gia khuyến nghị một số dấu hiệu để phát hiện khi chatbot đang nói sai hoặc “bịa” thông tin:
  • Khi câu trả lời mâu thuẫn với chính nó ở các truy vấn khác
  • Khi nội dung quá mơ hồ hoặc quá chi tiết bất thường
  • Khi lập luận phi logic hoặc cảm tính
  • Khi mô tả mang tính phóng đại, rập khuôn, hay định kiến
Vậy nên, có lẽ Kim Kardashian không sai khi cảm thấy “điên tiết” với ChatGPT. Nhưng thay vì hét vào mặt nó, có lẽ cô (và chúng ta) chỉ cần nhớ rằng: AI không phải là thầy, chỉ là công cụ. (cybernews)

Nguồn: https://cybernews.com/ai-news/kim-kardashian-blames-chatgpt-for-making-her-fail-law-exams/
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2NoYXRncHQta2hpZW4ta2ltLWthcmRhc2hpYW4tdHJ1b3QtdGhpLXZhLWJhaS1ob2MtdHUtYWktYW8tZ2lhYy43MzUwOC8=
Top