Nếu AI trở nên có ý thức, làm sao chúng ta biết được?

Các nhà khoa học và triết gia đang đề xuất một danh sách kiểm tra dựa trên các lý thuyết về ý thức con người.
VNReview.vn

Vào năm 2021, kỹ sư Blake Lemoine của Google đã gây chú ý — và tự sa thải — khi anh ấy tuyên bố rằng LaMDA, chatbot mà anh ấy đang thử nghiệm, có tri giác. Các hệ thống trí tuệ nhân tạo (AI), đặc biệt là cái gọi là các mô hình ngôn ngữ lớn như LaMDA và ChatGPT, chắc chắn có thể có ý thức. Nhưng chúng được đào tạo trên một lượng lớn văn bản để bắt chước phản ứng của con người. Vậy làm thế nào chúng ta có thể thực sự biết?
Giờ đây, một nhóm gồm 19 nhà khoa học máy tính, nhà thần kinh học và nhà triết học đã đưa ra một phương pháp: không phải là một bài kiểm tra dứt khoát duy nhất, mà là một danh sách kiểm tra dài các thuộc tính, cùng nhau, có thể gợi ý nhưng không chứng minh được AI có ý thức. Trong một tài liệu thảo luận dài 120 trang được đăng dưới dạng bản in trước trong tuần này, các nhà nghiên cứu dựa trên các lý thuyết về ý thức con người để đề xuất 14 tiêu chí, sau đó áp dụng chúng cho các kiếntrúc AI hiện có, bao gồm cả loại mô hình cung cấp năng lượng cho ChatGPT.
Họ kết luận rằng không ai có thể có ý thức. Đồng tác giả Robert Long của Trung tâm phi lợi nhuận về an toàn AI có trụ sở tại San Francisco cho biết, công trình này cung cấp một khuôn khổ để đánh giá các AI ngày càng giống con người. “Chúng tôi đang giới thiệu một phương pháp có hệ thống mà trước đây còn thiếu.”
Adeel Razi, một nhà thần kinh học máy tính tại Đại học Monash và là thành viên tại Viện Nghiên cứu Cao cấp Canada (CIFAR), người không tham gia vào bài báo mới, nói rằng đó là một bước có giá trị. “Tất cả chúng ta đều đang bắt đầu cuộc thảo luận thay vì đưa ra câu trả lời.”
Cho đến gần đây, ý thức máy móc vẫn là nội dung của các bộ phim khoa học viễn tưởng như Ex Machina. Long nói: “Khi Blake Lemoine bị sa thải khỏi Google sau khi bị LaMDA thuyết phục, điều đó đã đánh dấu một sự thay đổi. “Nếu AI có thể mang lại ấn tượng về ý thức, thì điều đó khiến các nhà khoa học và triết gia phải cân nhắc ưu tiên cấp bách.” Long và nhà triết học Patrick Butlin thuộc Viện Tương lai Nhân loại của Đại học Oxford đã tổ chức hai hội thảo về cách kiểm tra tri giác trong AI.
Đối với một cộng tác viên, nhà khoa học thần kinh tính toán Megan Peters tại Đại học California, Irvine, vấn đề này có khía cạnh đạo đức. “Chúng ta xử lý AI dựa trên xác suất nhận thức của nó như thế nào? Cá nhân tôi, đây là một phần của những gì buộc tôi.
Cô ấy nói rằng việc tuyển dụng các nhà nghiên cứu từ các lĩnh vực khác nhau được thực hiện để “khám phá sâu sắc và nhiều sắc thái”. “Long và Butlin đã thực hiện một công việc tuyệt vời là chăn nuôi mèo.”
Một trong những nhiệm vụ đầu tiên của đàn là định nghĩa ý thức, “một từ đầy cạm bẫy”, một thành viên khác, nhà tiên phong về máy học Yoshua Bengio của Viện Trí tuệ Nhân tạo Mila-Quebec, cho biết. Các nhà nghiên cứu quyết định tập trung vào điều mà nhà triết học Ned Block của Đại học New York đã gọi là “ý thức phi thường”, hay chất lượng chủ quan của một trải nghiệm – cảm giác nhìn thấy màu đỏ hoặc cảm thấy đau đớn như thế nào.
Nhưng làm thế nào để một người tiến hành thăm dò ý thức phi thường của một thuật toán? Không giống như bộ não con người, nó không đưa ra tín hiệu nào về hoạt động bên trong của nó có thể phát hiện được bằng điện não đồ hoặc MRI. Thay vào đó, các nhà nghiên cứu đã áp dụng “một cách tiếp cận thiên về lý thuyết”, cộng tác viên Liad Mudrik, một nhà khoa học thần kinh nhận thức tại Đại học Tel Aviv, giải thích: Trước tiên, họ sẽ khai thác các lý thuyết hiện tại về ý thức con người để tìm ra những mô tả cốt lõi của trạng thái ý thức, sau đó tìm kiếm những lý thuyết này trong kiến trúc cơ bản của AI.
Để được đưa vào, một lý thuyết phải dựa trên khoa học thần kinh và được hỗ trợ bởi bằng chứng thực nghiệm, chẳng hạn như dữ liệu từ việc quét não trong các bài kiểm tra thao túng ý thức bằng các thủ thuật nhận thức. Nó cũng phải cho phép khả năng ý thức có thể nảy sinh bất kể việc tính toán được thực hiện bởi tế bào thần kinh sinh học hay chip silicon.
Sáu lý thuyết đã được chấm điểm. Một là Lý thuyết xử lý lặp lại, đề xuất rằng việc truyền thông tin qua các vòng phản hồi là chìa khóa của ý thức. Một lý thuyết khác, Lý thuyết không gian làm việc thần kinh toàn cầu, cho rằng ý thức nảy sinh khi các luồng thông tin độc lập đi qua một nút cổ chai để kết hợp trong một không gian làm việc tương tự như khay nhớ tạm của máy tính.
Các lý thuyết bậc cao hơn đề xuất ý thức liên quan đến một quá trình biểu diễn và chú thích các đầu vào cơ bản nhận được từ các giác quan. Các lý thuyết khác nhấn mạnh tầm quan trọng của cơ chế kiểm soát sự chú ý và sự cần thiết của một cơ thể nhận phản hồi từ thế giới bên ngoài. Từ sáu lý thuyết bao gồm, nhóm nghiên cứu đã rút ra 14 chỉ số về trạng thái ý thức.
Các nhà nghiên cứu lý giải rằng kiến trúc AI càng kiểm tra nhiều chỉ số thì càng có nhiều khả năng nó sở hữu ý thức. Chuyên gia máy học tại Mila, Eric Elmoznino, đã áp dụng danh sách kiểm tra cho một số AI có kiến trúc khác nhau, bao gồm cả những kiến trúc được sử dụng để tạo hình ảnh như Dall-E2. Làm như vậy yêu cầu đưa ra các cuộc gọi phán đoán và điều hướng các khu vực màu xám. Nhiều kiến trúc đánh dấu vào ô cho các chỉ số từ Lý thuyết xử lý lặp lại. Một biến thể của loại mô hình ngôn ngữ lớn làm nền tảng cho ChatGPT cũng gần như thể hiện một tính năng khác, đó là sự hiện diện của không gian làm việc toàn cầu.
PaLM-E của Google, nhận đầu vào từ nhiều cảm biến robot khác nhau, đã đáp ứng tiêu chí “cơ quan và hiện thân”. Và, “Nếu bạn nheo mắt, có một cái gì đó giống như không gian làm việc,” Elmoznino cho biết thêm.
Tác nhân thích ứng (AdA) dựa trên máy biến áp của DeepMind, được đào tạo để điều khiển hình đại diện trong không gian 3D mô phỏng, cũng đủ tiêu chuẩn cho “cơ quan và hiện thân”, mặc dù nó thiếu các cảm biến vật lý như PaLM-E có. Do nhận thức về không gian của nó, “AdA có nhiều khả năng nhất… được thể hiện theo các tiêu chuẩn của chúng tôi,” các tác giả cho biết.
Cho rằng không có AI nào đánh dấu nhiều hơn một số ô, nên không có AI nào là ứng cử viên nặng ký cho ý thức, mặc dù Elmoznino nói, “Việc thiết kế tất cả các tính năng này thành AI là điều tầm thường”. Lý do không ai làm như vậy là “không rõ ràng là chúng sẽ hữu ích cho các nhiệm vụ.”
Các tác giả cho biết danh sách kiểm tra của họ là một công việc đang được tiến hành. Và đó không phải là nỗ lực duy nhất đang được tiến hành. Một số thành viên của nhóm, cùng với Razi, là một phần của dự án do CIFAR tài trợ nhằm đưa ra một bài kiểm tra ý thức rộng hơn cũng có thể áp dụng cho các cơ quan, động vật và trẻ sơ sinh. Họ hy vọng sẽ sản xuất một ấn phẩm trong vài tháng tới.
Razi nói, vấn đề đối với tất cả các dự án như vậy là các lý thuyết hiện tại dựa trên sự hiểu biết của chúng ta về ý thức con người. Tuy nhiên, ý thức có thể có các hình thức khác, ngay cả ở các động vật có vú đồng loại của chúng ta. Anh ấy nói: “Chúng tôi thực sự không biết làm dơi như thế nào. “Đó là một hạn chế mà chúng ta không thể thoát khỏi.”
Tham khảo bài viết gốc tại đây:
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top