VnReview
Hà Nội

Chương trình AI tranh luận thắng con người, nhưng không hiểu chính mình nói gì

Trong một cuộc tranh luận trực tiếp diễn ra vào tối qua tại San Fracisco (Mỹ), một chương trình AI đã đưa ra ý kiến rằng việc khám phá không gian nên được chính phủ trợ cấp. Khi một người đưa ra quan điểm không tán thành, AI này đã lập tức bác bỏ!

Cuộc tranh luận diễn ra giữa một chương trình máy tính của IBM có tên gọi Project Debater và nhiều người tham dự là bằng chứng mới nhất cho thấy các cỗ máy AI đang dần làm chủ những kỹ năng mà trước đây chỉ dành riêng cho con người - trong trường hợp này, chúng ta đang nói đến kỹ năng "tranh luận".

Trong suốt sự kiện, AI và một người tham gia đã thay phiên nhau đưa ra luận điểm về một chủ đề cụ thể, phản bác, và tìm cách chấm dứt tranh luận. Trong cuộc tranh luận thứ hai, AI này bảo vệ quan điểm tăng cường sử dụng các dịch vụ chăm sóc sức khỏe từ xa, trong khi người tham gia tìm cách tranh luận phủ định nó.

IBM cho biết họ đã và đang làm việc nhiều năm trời để phát triển phần mềm AI với khả năng "mò mẫm" một lượng lớn dữ liệu văn bản trước khi hình thành nên một câu tranh luận về một chủ đề cụ thể. Chính IBM đã tổ chức cuộc tranh luận nói trên nhằm quảng bá cho công nghệ này.

Project Debater không cố hình thành một câu tranh luận dựa trên hiểu biết về chủ thể trong câu hỏi. Thay vào đó, nó hình thành câu nói bằng cách kết hợp các yếu tố của những câu tranh luận trước đó, cùng với các thông tin liên quan từ Wikipedia.

Noam Slonim và Ranit Aharonov - hai nhà nghiên cứu của IBM đứng sau Project Debater

Ranit Aharonov, một nhà nghiên cứu gốc Israel đứng sau dự án, nhận thức được rằng AI này có nhiều giới hạn. "Còn một chặng đường dài phải đi để nắm vững ngôn ngữ" - cô nói. Tuy nhiên, Aharonov tin rằng công nghệ này sẽ có tính ứng dụng thực tế rất rộng rãi. Nó có thể giúp một người nào đó đưa ra một quyết định quan trọng bằng cách cung cấp nhiều luận cứ ủng hộ và phản bác.

Một hệ thống AI có khả năng tranh luận tất nhiên cũng có thể bị lợi dụng cho mục đích xấu xa, bao gồm bị đưa vào các con bot nguy hiểm trên mạng xã hội và hơn thế nữa. Đồng nghiệp của Aharonov là Noam Slonim bác bỏ mối nguy này: "Luôn có rủi ro, và tôi thực sự nghĩ nó bị hạn chế nhiều so với các công nghệ khác".

Oren Etzioni, CEO của Viện Allen về Trí tuệ nhân tạo tại Seattle cho biết rất khó để đánh giá khả năng của hệ thống do IBM phát triển dựa trên cuộc tranh luận kia. "Việc dàn xếp một màn demo dễ dàng hơn nhiều so với một cuộc tranh luận mở thực sợ, nơi họ cho phép bạn tương tác với hệ thống theo một cách tự nhiên".

Kristian Hammond, giáo sư Đại học Northwestern và là nhà sáng lập Narrative Sciences - một công ty tự động hình thành các bản tin thời sự và các nội dung khác - cho biết công nghệ này sẽ hữu dụng. Nhưng Hammond nhấn mạnh rằng phần mềm của IBM đơn giản là "nhại" lại những gì nó tìm được. "Hệ thống này không hề biết nó đang nói về điều gì. Đối với con người chúng ta, đó là lý luận không có giá trị".

Hammond còn nói rằng cuộc thi ở San Francisco chưa biểu diễn được tính ứng dụng của hệ thống. "Nó có một chút tính giải trí trong đó" - ông nói.

Minh.T.T

Chủ đề khác