Thoại Viết Hoàng
Writer
Khi OpenAI tung ra công cụ phát hiện AI của mình vào đầu năm nay, những người tạo ra nó đã gọi nó là "không hoàn hảo".
Thông báo được đưa ra dưới dạng một bản cập nhật cho một bài đăng trên blog vào tháng 1 năm 2023, nơi OpenAI đã công bố tính năng này. Một ghi chú ở đầu bài đăng hiện có nội dung: "Kể từ ngày 20 tháng 7 năm 2023, trình phân loại AI không còn khả dụng do tỷ lệ chính xác thấp." Bản cập nhật tiếp tục nói rằng công ty "hiện đang nghiên cứu các kỹ thuật xuất xứ hiệu quả hơn cho văn bản."
Tính năng miễn phí sử dụng này hoạt động bằng cách lấy văn bản và gán nó vào một trong số các danh mục. Sau đó, AI sẽ phân tích các danh mục đó và chỉ định xếp hạng từ "rất khó xảy ra" đến "có khả năng" do AI viết.
Khi công cụ này ra mắt, Lama Ahmad, giám đốc nghiên cứu chính sách tại OpenAI, nói với CNN rằng OpenAI không khuyến nghị sử dụng công cụ này một cách riêng lẻ vì công ty biết rằng "nó có thể sai và sẽ có lúc sai." Đó có thể là một cách đánh giá thấp.
Một nghiên cứu từ đầu tháng này cho thấy các máy dò AI đặc biệt kém trong việc phân biệt nội dung được viết bởi những người không nói tiếng Anh như ngôn ngữ mẹ đẻ của họ, với tỷ lệ bỏ sót trung bình là 61%. Tuy nhiên, một chương trình trong nghiên cứu này đã đánh dấu sai tới 97% bài luận do con người viết.
Đầu năm nay, ZDNET đã thử nghiệm một số công cụ phát hiện AI và nhận thấy kết quả tương tự -- các công cụ này khá không chính xác và dễ bị đánh lừa.
Các công cụ phát hiện AI khác vẫn tồn tại, nhưng việc OpenAI loại bỏ công cụ của mình khỏi công chúng cho thấy việc phát hiện chính xác AI khó khăn như thế nào. Và thật dễ dàng để thấy điều này có thể sai như thế nào. Trong môi trường giáo dục hoặc nghề nghiệp, việc buộc tội một người nào đó đạo văn một cách không công bằng có thể gây ra hậu quả nghiêm trọng.
Khi AI tiếp tục phát triển, những lo ngại về việc sử dụng nó để viết luận và hoàn thành công việc là chính đáng. Nhưng cho đến khi các công cụ phát hiện được cải thiện đáng kể, chúng ta sẽ phải tiếp tục kiểm soát nó bằng mắt người.
Tham khảo bài viết gốc tại đây
Khi OpenAI ra mắt một công cụ phát hiện AI cách đây chưa đầy sáu tháng, nó đã thừa nhận tính năng được thiết kế để giúp người dùng phát hiện văn bản được viết bởi trí tuệ nhân tạo là "không hoàn hảo". Giờ đây, công ty đã lặng lẽ rút tính năng này do "độ chính xác thấp" của nó.
Thông báo được đưa ra dưới dạng một bản cập nhật cho một bài đăng trên blog vào tháng 1 năm 2023, nơi OpenAI đã công bố tính năng này. Một ghi chú ở đầu bài đăng hiện có nội dung: "Kể từ ngày 20 tháng 7 năm 2023, trình phân loại AI không còn khả dụng do tỷ lệ chính xác thấp." Bản cập nhật tiếp tục nói rằng công ty "hiện đang nghiên cứu các kỹ thuật xuất xứ hiệu quả hơn cho văn bản."
Tính năng miễn phí sử dụng này hoạt động bằng cách lấy văn bản và gán nó vào một trong số các danh mục. Sau đó, AI sẽ phân tích các danh mục đó và chỉ định xếp hạng từ "rất khó xảy ra" đến "có khả năng" do AI viết.
Khi công cụ này ra mắt, Lama Ahmad, giám đốc nghiên cứu chính sách tại OpenAI, nói với CNN rằng OpenAI không khuyến nghị sử dụng công cụ này một cách riêng lẻ vì công ty biết rằng "nó có thể sai và sẽ có lúc sai." Đó có thể là một cách đánh giá thấp.
Một nghiên cứu từ đầu tháng này cho thấy các máy dò AI đặc biệt kém trong việc phân biệt nội dung được viết bởi những người không nói tiếng Anh như ngôn ngữ mẹ đẻ của họ, với tỷ lệ bỏ sót trung bình là 61%. Tuy nhiên, một chương trình trong nghiên cứu này đã đánh dấu sai tới 97% bài luận do con người viết.
Đầu năm nay, ZDNET đã thử nghiệm một số công cụ phát hiện AI và nhận thấy kết quả tương tự -- các công cụ này khá không chính xác và dễ bị đánh lừa.
Các công cụ phát hiện AI khác vẫn tồn tại, nhưng việc OpenAI loại bỏ công cụ của mình khỏi công chúng cho thấy việc phát hiện chính xác AI khó khăn như thế nào. Và thật dễ dàng để thấy điều này có thể sai như thế nào. Trong môi trường giáo dục hoặc nghề nghiệp, việc buộc tội một người nào đó đạo văn một cách không công bằng có thể gây ra hậu quả nghiêm trọng.
Khi AI tiếp tục phát triển, những lo ngại về việc sử dụng nó để viết luận và hoàn thành công việc là chính đáng. Nhưng cho đến khi các công cụ phát hiện được cải thiện đáng kể, chúng ta sẽ phải tiếp tục kiểm soát nó bằng mắt người.
Tham khảo bài viết gốc tại đây