AI ảnh hưởng đến niềm tin trong tương tác của con người

>> AI Chatbots: Mặt tốt, mặt xấu và mặt vô lại
>> Ủy ban EU bật đèn xanh cho Đạo luật AI
>> AI đọc não và giải mã độc thoại nội tâm của con người! Bí mật của cá nhân sẽ bị nhìn xuyên thấu?
Khi AI ngày càng trở nên thực tế, niềm tin của chúng ta vào những người mà chúng ta giao tiếp có thể bị tổn hại. Các nhà nghiên cứu tại Đại học Gothenburg đã xem xét mức độ ảnh hưởng của các hệ thống AI tiên tiến đối với niềm tin của chúng ta đối với những cá nhân mà chúng ta tương tác.
Trong một tình huống, một kẻ lừa đảo sẽ tin rằng anh ta đang gọi cho một người đàn ông lớn tuổi, thay vào đó được kết nối với một hệ thống máy tính giao tiếp thông qua các vòng lặp được ghi sẵn. Kẻ lừa đảo dành thời gian đáng kể để cố gắng lừa đảo, kiên nhẫn lắng nghe những câu chuyện hơi khó hiểu và lặp đi lặp lại của "người đàn ông". Oskar Lindwall, giáo sư truyền thông tại Đại học Gothenburg, nhận xét rằng mọi người thường mất nhiều thời gian để nhận ra rằng họ đang tương tác với một hệ thống kỹ thuật.
Anh ấy đã cộng tác với Giáo sư tin học Jonas Ivarsson, viết một bài báo có tiêu đề Tâm trí đáng ngờ: Vấn đề về lòng tin và tác nhân đối thoại , khám phá cách các cá nhân diễn giải và liên hệ với các tình huống mà một trong các bên có thể là tác nhân AI. Bài báo nhấn mạnh những hậu quả tiêu cực của việc nuôi dưỡng sự nghi ngờ đối với người khác, chẳng hạn như thiệt hại mà nó có thể gây ra cho các mối quan hệ.
Ivarsson đưa ra một ví dụ về một mối quan hệ lãng mạn, nơi nảy sinh các vấn đề về lòng tin, dẫn đến ghen tuông và gia tăng xu hướng tìm kiếm bằng chứng lừa dối. Các tác giả lập luận rằng việc không thể hoàn toàn tin tưởng vào ý định và danh tính của đối tác đàm thoại có thể dẫn đến sự nghi ngờ quá mức ngay cả khi không có lý do gì.
Nghiên cứu của họ phát hiện ra rằng trong quá trình tương tác giữa hai người, một số hành vi được hiểu là dấu hiệu cho thấy một trong số họ thực sự là rô-bốt.
Các nhà nghiên cứu cho rằng quan điểm thiết kế phổ biến đang thúc đẩy sự phát triển của AI với các tính năng ngày càng giống con người. Mặc dù điều này có thể hấp dẫn trong một số ngữ cảnh, nhưng nó cũng có thể gây ra vấn đề, đặc biệt là khi bạn đang giao tiếp với ai mà không rõ ràng. Ivarsson đặt câu hỏi liệu AI có nên có giọng nói giống con người như vậy hay không, vì chúng tạo ra cảm giác thân mật và khiến mọi người hình thành ấn tượng chỉ dựa trên giọng nói.
Trong trường hợp kẻ lừa đảo sẽ gọi là "ông già", trò lừa đảo chỉ bị bại lộ sau một thời gian dài, mà Lindwall và Ivarsson cho rằng giọng nói của con người đáng tin cậy và giả định rằng hành vi bối rối là do tuổi tác. Khi AI có tiếng nói, chúng ta sẽ suy ra các thuộc tính như giới tính, tuổi tác và nền tảng kinh tế xã hội, khiến việc xác định rằng chúng ta đang tương tác với máy tính trở nên khó khăn hơn.
Các nhà nghiên cứu đề xuất tạo ra AI với giọng nói hoạt động tốt và hùng hồn mà vẫn rõ ràng là tổng hợp, tăng tính minh bạch.
Giao tiếp với người khác không chỉ liên quan đến sự lừa dối mà còn liên quan đến việc xây dựng mối quan hệ và cùng tạo ra ý nghĩa. Việc không chắc chắn liệu một người đang nói chuyện với con người hay máy tính ảnh hưởng đến khía cạnh giao tiếp này. Mặc dù nó có thể không quan trọng trong một số trường hợp, chẳng hạn như liệu pháp nhận thức-hành vi, nhưng các hình thức trị liệu khác đòi hỏi sự kết nối giữa con người với nhau nhiều hơn có thể bị tác động tiêu cực.
Jonas Ivarsson và Oskar Lindwall đã phân tích dữ liệu có sẵn trên YouTube. Họ đã nghiên cứu ba kiểu hội thoại và phản ứng cũng như bình luận của khán giả. Ở loại đầu tiên, một robot gọi một người để đặt lịch hẹn làm tóc mà người ở đầu dây bên kia không hề hay biết. Trong loại thứ hai, một người gọi cho một người khác với mục đích tương tự. Ở loại thứ ba, những người tiếp thị qua điện thoại được chuyển đến một hệ thống máy tính có ghi âm sẵn lời nói.
Bài viết gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top