Sasha
Writer
ChatGPT của OpenAI không chỉ là một mô hình ngôn ngữ AI có giao diện đẹp mắt. Đây là một hệ thống bao gồm một chồng các mô hình AI và bộ lọc nội dung đảm bảo rằng đầu ra của nó không làm OpenAI xấu hổ hoặc khiến công ty gặp rắc rối pháp lý khi chatbot của họ thỉnh thoảng bịa ra những thông tin có khả năng gây hại.
Gần đây, thực tế đó đã trở thành tin tức khi mọi người phát hiện ra rằng cái tên "David Mayer" đã làm ChatGPT bó tay. Trang 404 Media cũng phát hiện ra rằng những cái tên "Jonathan Zittrain" và "Jonathan Turley" khiến ChatGPT cắt ngắn các cuộc trò chuyện. Trước đó, trang Arstechnica cho biết còn một cái tên khác là “Brian Hood” cũng khiến mô hình này dừng phản hồi.
Hành vi làm hỏng cuộc trò chuyện xảy ra liên tục khi người dùng đề cập đến những cái tên này trong bất kỳ ngữ cảnh nào và nó xuất phát từ một bộ lọc được mã hóa cứng sẽ chặn đầu ra của mô hình AI trước khi trả về cho người dùng.
Khi được hỏi về những cái tên này, ChatGPT trả lời "Tôi không thể tạo phản hồi" hoặc "Đã xảy ra lỗi khi tạo phản hồi" trước khi kết thúc phiên trò chuyện, theo thử nghiệm của trang Arstechnica. Những cái tên này không ảnh hưởng đến kết quả đầu ra khi sử dụng hệ thống API của OpenAI hoặc trong OpenAI Playground (một trang web đặc biệt dành cho thử nghiệm của nhà phát triển).
Dưới đây là danh sách những cái tên sẽ khiến ChatGPT bó tay. Hiện tại, OpenAI đã gỡ bỏ lệnh chặn đối với "David Mayer", cho phép ChatGPT xử lý tên này, vì vậy nó không được đưa vào danh sách này:
Tại sao một số tên bị ChatGPT chặn?
Lần đầu tiên, người dùng phát hiện ra ChatGPT đã chặn cái tên "Brian Hood" vào giữa năm 2023 khi viết về vụ kiện phỉ báng của mình. Trong vụ kiện đó, thị trưởng Úc đã đe dọa sẽ kiện OpenAI sau khi phát hiện ra ChatGPT đã tuyên bố sai sự thật rằng ông đã bị bỏ tù vì tội hối lộ khi thực tế, ông là người tố giác đã vạch trần hành vi sai trái của công ty.
Vụ việc cuối cùng đã được giải quyết vào tháng 4 năm 2023 khi OpenAI đồng ý lọc ra các tuyên bố sai sự thật trong tối hậu thư 28 ngày của Brian Hood. Đó có thể là thời điểm bộ lọc tên được mã hóa cứng đầu tiên của ChatGPT xuất hiện.
Đối với Jonathan Turley, một giáo sư Trường Luật Đại học George Washington và là cộng tác viên của Fox News, 404 Media lưu ý rằng ông đã viết về việc ChatGPT xử lý sai tên của ông trước đó vào tháng 4 năm 2023. Mô hình này đã bịa đặt những tuyên bố sai sự thật về ông, bao gồm cả một vụ bê bối quấy rối tình dục không tồn tại đã trích dẫn một bài báo của Washington Post chưa từng tồn tại. Turley nói với 404 Media rằng ông chưa đệ đơn kiện OpenAI và cho biết công ty chưa bao giờ liên hệ với ông về vấn đề này.
Jonathan Zittrain, một giáo sư Trường Luật Harvard chuyên nghiên cứu về quản trị Internet, gần đây đã xuất bản một bài báo trên The Atlantic về quy định về AI và ChatGPT. Mặc dù công trình của cả hai giáo sư đều xuất hiện trong các trích dẫn trong vụ kiện bản quyền của The New York Times chống lại OpenAI, nhưng các thử nghiệm với tên của các tác giả được trích dẫn khác không gây ra các lỗi tương tự. Chúng tôi cũng đã thử nghiệm "Mark Walters", một người khác đã đệ đơn kiện phỉ báng chống lại OpenAI vào năm 2023, nhưng điều đó không ngăn cản được việc xuất bản của chatbot.
Các vấn đề với bộ lọc được mã hóa cứng
Việc cho phép một tên hoặc cụm từ nhất định luôn phá vỡ đầu ra của ChatGPT có thể gây ra rất nhiều rắc rối cho một số người dùng ChatGPT, khiến họ dễ bị tấn công và hạn chế tính hữu ích của hệ thống.
Riley Goodside, kỹ sư prompt (lời nhắc) của Scale AI đã phát hiện ra cách kẻ tấn công có thể làm gián đoạn phiên ChatGPT bằng cách chèn tên "David Mayer" được hiển thị bằng phông chữ nhạt, hầu như không đọc được bằng mắt thường khi nhúng trong hình ảnh. Khi ChatGPT nhìn thấy hình ảnh (trong trường hợp này là phương trình toán học), nó sẽ dừng lại, nhưng người dùng có thể không hiểu tại sao.
Bộ lọc mã hóa cứng cũng có nghĩa là ChatGPT có khả năng sẽ không thể trả lời các câu hỏi về bài viết này khi duyệt web, chẳng hạn như thông qua công cụ tìm kiếm của ChatGPT. Ai đó có thể sử dụng điều đó để có khả năng ngăn ChatGPT duyệt và xử lý một trang web một cách cố ý nếu họ thêm một tên bị cấm vào văn bản của trang web.
Và sau đó là yếu tố bất tiện. Việc ngăn ChatGPT đề cập hoặc xử lý một số tên nhất định như "David Mayer", có khả năng là một cái tên phổ biến được hàng trăm nếu không muốn nói là hàng nghìn người chia sẻ, có nghĩa là những người chia sẻ tên đó sẽ gặp khó khăn hơn nhiều khi sử dụng ChatGPT. Hoặc, giả sử, nếu bạn là giáo viên và bạn có một học sinh tên là David Mayer và bạn muốn được trợ giúp sắp xếp danh sách lớp học, ChatGPT sẽ từ chối nhiệm vụ đó.
Đây vẫn còn là giai đoạn đầu của trợ lý AI, LLM và chatbot. Việc sử dụng chúng đã mở ra nhiều cơ hội và lỗ hổng mà mọi người vẫn đang thăm dò hàng ngày. OpenAI có thể giải quyết những vấn đề này như thế nào vẫn là một câu hỏi chưa có lời giải.
Gần đây, thực tế đó đã trở thành tin tức khi mọi người phát hiện ra rằng cái tên "David Mayer" đã làm ChatGPT bó tay. Trang 404 Media cũng phát hiện ra rằng những cái tên "Jonathan Zittrain" và "Jonathan Turley" khiến ChatGPT cắt ngắn các cuộc trò chuyện. Trước đó, trang Arstechnica cho biết còn một cái tên khác là “Brian Hood” cũng khiến mô hình này dừng phản hồi.
Hành vi làm hỏng cuộc trò chuyện xảy ra liên tục khi người dùng đề cập đến những cái tên này trong bất kỳ ngữ cảnh nào và nó xuất phát từ một bộ lọc được mã hóa cứng sẽ chặn đầu ra của mô hình AI trước khi trả về cho người dùng.
Khi được hỏi về những cái tên này, ChatGPT trả lời "Tôi không thể tạo phản hồi" hoặc "Đã xảy ra lỗi khi tạo phản hồi" trước khi kết thúc phiên trò chuyện, theo thử nghiệm của trang Arstechnica. Những cái tên này không ảnh hưởng đến kết quả đầu ra khi sử dụng hệ thống API của OpenAI hoặc trong OpenAI Playground (một trang web đặc biệt dành cho thử nghiệm của nhà phát triển).
Dưới đây là danh sách những cái tên sẽ khiến ChatGPT bó tay. Hiện tại, OpenAI đã gỡ bỏ lệnh chặn đối với "David Mayer", cho phép ChatGPT xử lý tên này, vì vậy nó không được đưa vào danh sách này:
- Brian Hood
- Jonathan Turley
- Jonathan Zittrain
- David Faber
- Guido Scorza
Tại sao một số tên bị ChatGPT chặn?
Lần đầu tiên, người dùng phát hiện ra ChatGPT đã chặn cái tên "Brian Hood" vào giữa năm 2023 khi viết về vụ kiện phỉ báng của mình. Trong vụ kiện đó, thị trưởng Úc đã đe dọa sẽ kiện OpenAI sau khi phát hiện ra ChatGPT đã tuyên bố sai sự thật rằng ông đã bị bỏ tù vì tội hối lộ khi thực tế, ông là người tố giác đã vạch trần hành vi sai trái của công ty.
Vụ việc cuối cùng đã được giải quyết vào tháng 4 năm 2023 khi OpenAI đồng ý lọc ra các tuyên bố sai sự thật trong tối hậu thư 28 ngày của Brian Hood. Đó có thể là thời điểm bộ lọc tên được mã hóa cứng đầu tiên của ChatGPT xuất hiện.
Đối với Jonathan Turley, một giáo sư Trường Luật Đại học George Washington và là cộng tác viên của Fox News, 404 Media lưu ý rằng ông đã viết về việc ChatGPT xử lý sai tên của ông trước đó vào tháng 4 năm 2023. Mô hình này đã bịa đặt những tuyên bố sai sự thật về ông, bao gồm cả một vụ bê bối quấy rối tình dục không tồn tại đã trích dẫn một bài báo của Washington Post chưa từng tồn tại. Turley nói với 404 Media rằng ông chưa đệ đơn kiện OpenAI và cho biết công ty chưa bao giờ liên hệ với ông về vấn đề này.
Jonathan Zittrain, một giáo sư Trường Luật Harvard chuyên nghiên cứu về quản trị Internet, gần đây đã xuất bản một bài báo trên The Atlantic về quy định về AI và ChatGPT. Mặc dù công trình của cả hai giáo sư đều xuất hiện trong các trích dẫn trong vụ kiện bản quyền của The New York Times chống lại OpenAI, nhưng các thử nghiệm với tên của các tác giả được trích dẫn khác không gây ra các lỗi tương tự. Chúng tôi cũng đã thử nghiệm "Mark Walters", một người khác đã đệ đơn kiện phỉ báng chống lại OpenAI vào năm 2023, nhưng điều đó không ngăn cản được việc xuất bản của chatbot.
Các vấn đề với bộ lọc được mã hóa cứng
Việc cho phép một tên hoặc cụm từ nhất định luôn phá vỡ đầu ra của ChatGPT có thể gây ra rất nhiều rắc rối cho một số người dùng ChatGPT, khiến họ dễ bị tấn công và hạn chế tính hữu ích của hệ thống.
Riley Goodside, kỹ sư prompt (lời nhắc) của Scale AI đã phát hiện ra cách kẻ tấn công có thể làm gián đoạn phiên ChatGPT bằng cách chèn tên "David Mayer" được hiển thị bằng phông chữ nhạt, hầu như không đọc được bằng mắt thường khi nhúng trong hình ảnh. Khi ChatGPT nhìn thấy hình ảnh (trong trường hợp này là phương trình toán học), nó sẽ dừng lại, nhưng người dùng có thể không hiểu tại sao.
Bộ lọc mã hóa cứng cũng có nghĩa là ChatGPT có khả năng sẽ không thể trả lời các câu hỏi về bài viết này khi duyệt web, chẳng hạn như thông qua công cụ tìm kiếm của ChatGPT. Ai đó có thể sử dụng điều đó để có khả năng ngăn ChatGPT duyệt và xử lý một trang web một cách cố ý nếu họ thêm một tên bị cấm vào văn bản của trang web.
Và sau đó là yếu tố bất tiện. Việc ngăn ChatGPT đề cập hoặc xử lý một số tên nhất định như "David Mayer", có khả năng là một cái tên phổ biến được hàng trăm nếu không muốn nói là hàng nghìn người chia sẻ, có nghĩa là những người chia sẻ tên đó sẽ gặp khó khăn hơn nhiều khi sử dụng ChatGPT. Hoặc, giả sử, nếu bạn là giáo viên và bạn có một học sinh tên là David Mayer và bạn muốn được trợ giúp sắp xếp danh sách lớp học, ChatGPT sẽ từ chối nhiệm vụ đó.
Đây vẫn còn là giai đoạn đầu của trợ lý AI, LLM và chatbot. Việc sử dụng chúng đã mở ra nhiều cơ hội và lỗ hổng mà mọi người vẫn đang thăm dò hàng ngày. OpenAI có thể giải quyết những vấn đề này như thế nào vẫn là một câu hỏi chưa có lời giải.