VnReview
Hà Nội

Bí mật đen tối trong ‘trái tim’ của AI

Khi máy tính có khả năng "học sâu" (deep learning), không ai biết máy tính đã nghĩ gì khi đưa ra một quyết định nào đó. Điều này khiến các nhà nghiên cứu và cả người sử dụng không yên tâm.;

Phần I: Vấn đề lớn của trí tuệ nhân tạo: không thể phân tích nguyên nhân hành vi của máy

1. Năm ngoái, một chiếc xe tự lái kỳ lạ xuất hiện trên những con phố yên bình của hạt Monmouth, bang New Jersey. Phương tiện thử nghiệm này do các nhà nghiên cứu của hãng sản xuất chip Nvidia phát triển, trông không khác gì với những xe tự lái khác, nhưng lại không giống với bất kỳ thứ nào từng được trưng bày bởi Google, Tesla hay General Motors và cho thấy khả năng ngày càng cao của trí tuệ nhân tạo. Chiếc xe không tuân theo một chỉ dẫn độc lập của một kỹ sư hay lập trình viên. Thay vào đó, nó dựa hoàn toàn vào thuật toán để tự dạy mình bằng việc quan sát cách con người lái xe.

Khiến một chiếc xe tự lái theo cách này là một kết quả thực sự ấn tượng. Nhưng lại có chút bất an vì không rõ chiếc xe đưa ra quyết định như thế nào. Thông tin từ các cảm biến của xe đi thẳng đến mạng lưới khổng lồ các nơ-ron thần kinh nhân tạo để xử lý dữ liệu, sau đó phân phối các lệnh để vận hành vô-lăng, phanh và các hệ thống khác. Kết quả dường như khớp với những phản hồi bạn mong đợi từ chiếc xe do con người lái. Nhưng sẽ ra sao nếu một ngày vài chuyện ngoài ý muốn xảy ra, như đâm vào cây hoặc dừng đèn xanh chẳng hạn? Trong hoàn cảnh hiện tại, sẽ khá khó khăn để biết tại sao. Hệ thống quá phức tạp đến nỗi thậm chí các kĩ sư phát triển cũng có thể phải vật lộn để tách riêng nguyên nhân cho mỗi hành động đơn lẻ. Và bạn cũng không thể hỏi chiếc xe vì chẳng có cách nào để thiết kế ra một hệ thống có khả năng giải thích cho mỗi hành động của mình.

Tư duy bí ẩn của chiếc xe cũng chính là một vấn đề của trí tuệ nhân tạo (AI). Công nghệ AI vận hành chiếc xe, còn gọi là học sâu (deep learning), những năm gần đây đã chứng tỏ có khả năng mạnh mẽ trong việc xử lý vấn đề và được triển khai rộng rãi cho các công việc như chú thích ảnh, nhận diện giọng nói và dịch ngôn ngữ. Hiện tại, nhiều người hy vọng các kỹ thuật tương tự sẽ có khả năng chẩn đoán các bệnh chết người, ra các quyết định kinh doanh triệu đô và thực hiện vô số các công việc khác nhằm chuyển đổi toàn bộ ngành công nghiệp.

Nhưng điều này sẽ không xảy ra, hoặc không nên xảy ra, trừ khi chúng ta tìm ra cách khiến các kỹ thuật giống như học sâu trở nên dễ hiểu hơn với người sáng tạo và có thể giải thích đối với người dùng. Nếu không, sẽ khó để dự đoán khi nào hỏng hóc có thể xảy ra – trong khi hỏng hóc là điều không tránh khỏi. Đó là một trong những lý do khiến chiếc xe của Nvidia vẫn chỉ là thử nghiệm.

2. Đã có những mô hình toán học được dùng để xác định ai là người đưa ra lệnh thả tù nhân, ai được phê duyệt khoản vay và ai được thuê làm việc. Nếu bạn tiếp cận những mô hình toán học này, có thể bạn sẽ hiểu lý lẽ của chúng. Nhưng ngân hàng, quân đội, người thuê lao động và những người khác đang chuyển hướng quan tâm đến các phương pháp máy học phức tạp hơn khiến việc ra quyết định tự động gần như không thể giải thích. Học sâu, kĩ thuật phổ biến nhất của các cách tiếp cận này, là một cách hoàn toàn khác để lập trình máy tính. Tommi Jaakkola, giáo sư tại Viện công nghệ Massachusetts (MIT), hiện làm việc về các ứng dụng máy học cho biết: "Có một vấn đề là ứng dụng này đã hữu ích và sẽ còn có ích nhiều hơn trong tương lai. Dù là một quyết định đầu tư, một quyết định y học hoặc có thể cả quân sự thì bạn không muốn chỉ dựa vào phương pháp ‘hộp đen'".

Có ý kiến tranh luận rằng việc chúng ta có thể thẩm vấn một hệ thống AI về cách nó rút ra các kết luận là một quyền hợp pháp cơ bản. Đầu hè năm 2018, Liên minh Châu Âu (EU) có thể yêu cầu các công ty đưa ra lời giải thích cho người dùng về các quyết định mà các hệ thống tự động hoá thực hiện. Điều này dường như là không thể, ngay cả những hệ thống có giao diện tương đối đơn giản, như các ứng dụng và website dùng học sâu để phát quảng cáo hay giới thiệu bài hát. Các máy tính chạy những dịch vụ này đã tự lập trình cho mình và thực hiện theo những cách mà chúng ta không thể hiểu được. Thậm chí, các kĩ sư phát triển những ứng dụng này cũng không thể giải thích đầy đủ về hành vi của chúng.

Điều này đặt ra những câu hỏi khó tin. Với những tiến bộ về công nghệ, có thể chúng ta sẽ sớm vượt qua ngưỡng nơi sử dụng AI đòi hỏi sự tin tưởng vô điều kiện. Chắc chắn, con người chúng ta cũng không thể lúc nào cũng giải thích được quá trình suy nghĩ của mình, nhưng chúng ta tìm ra cách để tin tưởng và đánh giá con người bằng trực giác. Liệu điều đó có khả dĩ với những cỗ máy vốn suy nghĩ và ra quyết định khác với cách con người làm hay không? Chúng ta chưa bao giờ tạo ra những cỗ máy hoạt động theo cách những người tạo ra chúng không hiểu được. Vậy làm cách nào chúng ta giao tiếp và hoà hợp với những cỗ máy thông minh nhưng lại không thể đoán trước và không thể nhìn thấu được? Những câu hỏi này đã đưa phóng viên với hành trình tìm hiểu những nghiên cứu mới nhất về thuật toán AI, bắt đầu từ Google đến Apple và nhiều hãng khác trong lĩnh vực này, bao gồm cả cuộc gặp mặt với một trong những nhà triết học vĩ đại nhất trong thời đại của chúng ta.

Adam Ferriss sử dụng Deep Dream của Google, một chương trình điều chỉnh hình ảnh để kích thích khả năng nhận diện khuôn mẫu của mạng lưới thần kinh sâu. Các bức ảnh được tạo ra sử dụng lớp giữa của mạng lưới thần kinh.

3. Năm 2015, một nhóm nghiên cứu tại Bệnh viện Mount Sinai, New York đã được truyền cảm hứng để ứng dụng học sâu vào cơ sở dữ liệu khổng lồ về hồ sơ bệnh án. Bộ dữ liệu này đưa ra đặc điểm của hàng trăm bệnh nhân, lấy từ các kết quả kiểm tra, các lần thăm khám của bác sĩ… Chương trình có tên là Deep Patient, được huấn luyện để sử dụng dữ liệu từ khoảng 700.000 bệnh nhân và khi được thử nghiệm trên những hồ sơ mới, nó đã chứng minh việc chẩn đoán bệnh tật chính xác đáng kinh ngạc. Không cần đến chỉ dẫn của chuyên gia, Deep Patient tự tìm ra các mẫu ẩn trong dữ liệu, có khả năng xác định khi nào con người có thể mắc các loại bệnh, bao gồm cả ung thư gan. Có nhiều phương pháp "khá tốt" để dự đoán bệnh từ hồ sơ bệnh án, Joel Dudley, trưởng nhóm Mount Sinai cho biết và nói thêm "Đây chỉ là cách tốt hơn".

Đồng thời, Deep Patient có chút khó hiểu. Nó dường như dự đoán được các chứng rối loạn tâm thần, như bệnh tâm thần phân liệt, khá tốt. Nhưng vì bệnh này nổi tiếng là khó chẩn đoán đối với các bác sĩ, đến hiện tại Dudley vẫn chưa biết được làm thế nào điều này có thể xảy ra. Công cụ mới này cũng không cung cấp manh mối nào về cách nó thực hiện. Nếu có một thứ kiểu Deep Patient thì thực sự giúp ích cho các bác sỹ, sẽ lý tưởng nếu nó có thể đưa ra lý do cho các dự đoán, để các bác sỹ có thể tin tưởng rằng dự đoán đó là chính xác và việc thay đổi một số loại thuốc là cần thiết. Dudley nói: "Chúng ta có thể tạo ra những mẫu này nhưng lại không biết chúng hoạt động như thế nào".

Trí tuệ nhân tạo không phải lúc nào cũng hoạt động theo cách này. Ngay từ đầu, có hai trường phái tư duy về việc AI có thể hiểu và có thể giải thích ở mức độ nào. Nhiều người nghĩ rằng hữu ích nhất là tạo ra những cỗ máy suy luận theo các nguyên tắc và logic, khiến những hoạt động bên trong chúng trở nên rõ ràng đối với bất kỳ ai kiểm tra code. Số khác lại thấy trí tuệ sẽ dễ dàng hơn nếu các cỗ máy lấy cảm hứng từ sinh học và học bằng cách quan sát và trải nghiệm. Điều này đồng nghĩa với quay ngược lập trình của máy tính. Thay vì một lập trình viên viết các lệnh để xử lý vấn đề, chương trình tự sinh ra các thuật toán riêng dựa trên các dữ liệu mẫu và đầu ra mong muốn. Các kĩ thuật học máy sau này có thể phát triển thành các hệ thống AI mạnh mẽ nhất hiện nay theo trường phái thứ hai: máy tính về cơ bản tự lập trình cho mình.

Ban đầu cách tiếp cận này chỉ dùng được trong một phạm vi thực tế hạn hẹp và vào những năm 1960 và 1970, nó vẫn bị hạn chế phần lớn ở một số lĩnh vực. Sau đó việc tin học hoá của nhiều ngành công nghiệp và sự xuất hiện của các tập dữ liệu lớn đã khiến mối quan tâm thay đổi và truyền cảm hứng phát triển của nhiều kĩ thuật máy học mạnh mẽ hơn, đặc biệt là những phiên bản mới của mạng lưới thần kinh nhân tạo. Vào những năm 1990, mạng thần kinh có thể tự động số hoá các ký tự viết tay.

Nhưng phải cho đến tận đầu thập kỉ này, sau một số cải tiến và sàng lọc thông minh, các mạng lưới thần kinh rất lớn - hay "sâu" - đã chứng tỏ những cải thiện đáng kể về nhận thức tự động hóa. Học sâu là nguồn gốc cho sự bùng nổ của AI ngày nay. Nó giúp các máy tính có sức mạnh đặc biệt, chẳng hạn khả năng nhận diện lời nói như con người, một kĩ năng quá phức tạp để code cho các máy một cách thủ công. Học sâu đã thay đổi thị giác máy tính và cải thiện đáng kể khả năng dịch máy. Hiện tại nó được dùng để hướng dẫn phân loại các quyết định quan trọng về y học, tài chính, sản xuất và hơn thế nữa.

Cách làm việc của tất cả các công nghệ học máy vốn đã không rõ ràng, thậm chí với cả các nhà khoa học máy tính. Điều này không có nghĩa là tất cả các kỹ thuật AI trong tương lai đều không thể hiểu. Nhưng xét về bản chất, học sâu là một chiếc "hộp đen" cực kỳ đặc biệt.

Bạn không thể chỉ nhìn vào bên trong một mạng lưới thần kinh sâu để xem cách nó hoạt động. Lập luận của mạng lưới được ghi nhớ trong hành vi của hàng ngàn các dây thần kinh mô phỏng, được xếp trong hàng chục, thậm chí hàng trăm các lớp liên kết phức tạp. Tế bào thần kinh nằm ở lớp đầu nhận tín hiệu đầu vào, như cường độ của một điểm ảnh trong bức ảnh, sau đó thực hiện các tính toán trước khi truyền đi các tín hiệu mới. Các tín hiệu đầu ra này nuôi dưỡng, trong một web hỗn hợp, đến các nơ-ron thần kinh trong lớp tiếp theo và liên tục như thế cho đến khi sản sinh ra tín hiệu đầu ra tổng thể. Thêm vào đó, có một quá trình được gọi là truyền ngược giúp tinh chỉnh những tính toán của các nơ-ron thần kinh riêng rẽ để mạng lưới học cách sản sinh ra kết quả đầu ra mong muốn.

Việc có nhiều lớp trong một mạng lưới sâu cho phép nhận diện những vật ở các mức độ trừu tượng khác nhau. Ví dụ: trong một hệ thống được thiết kế để nhận diện một con chó, lớp thấp hơn nhận diện những thứ đơn giản như hình dáng hay màu sắc, lớp cao hơn nhận diện phức tạp hơn như lông hoặc mắt, lớp trên cùng sẽ nhận diện tổng thể cả con chó. Cách tiếp cận tương tự có thể được áp dụng đối với các đầu vào khác khiến cỗ máy có thể tự dạy cho chính mình: các âm thanh cấu thành các từ trong lời nói, các chữ cái và từ tạo nên một câu trong văn bản, hoặc các chuyển động của vô lăng cần thiết cho việc lái xe.

Phần 2: Đi tìm thuật toán giải thích tư duy của máy học

1. Các chiến lược tài tình đã được sử dụng để thử nắm bắt và do đó giải thích chi tiết hơn những gì xảy ra bên trong những hệ thống như vậy. Năm 2015, các nhà nghiên cứu Google đã điều chỉnh một thuật toán nhận diện hình ảnh dựa trên học sâu để thay vì nhận ra các đối tượng trong ảnh, nó có thể tự sinh ra và chỉnh sửa chúng. Bằng cách cho chạy thuật toán theo cách ngược lại một cách hiệu quả, họ khám phá ra các tính năng chương trình sử dụng để nhận diện, ví dụ như một con chim hoặc một toà nhà. Hình ảnh kết quả cho thấy những con vật kì cục, giống người ngoài hành tinh xuất hiện từ những đám mây, những vườn thực vật trải dài khắp các cánh rừng và các rặng núi. Các bức ảnh chứng minh học sâu không cần phải hiểu hoàn toàn; các thuật toán hướng đến những tính năng trực quan thông dụng như cái mỏ hoặc bộ lông của con chim. Nhưng những hình ảnh cũng ám chỉ học sâu khác biệt như thế nào với nhận thức của con người, trong đó nó có thể biến thành sự giả tưởng mà chúng ta bỏ qua. Các nhà nghiên cứu Google chỉ ra khi thuật toán tạo nên hình ảnh một quả tạ, nó cũng đồng thời tạo ra cánh tay người cầm nó. Chiếc máy đã kết luận rằng, cánh tay là một phần của vật thể.

Những tiến bộ sau đó có được nhờ sử dụng các ý tưởng mượn từ khoa học thần kinh và khoa học nhận thức. Một nhóm nghiên cứu dẫn dầu bởi Jeff Clune, trợ lý giáo sư của trường Đại học Wyoming đã dùng thiết bị AI của ảo ảnh quang học để thử nghiệm mạng lưới thần kinh sâu. Năm 2015, nhóm này đã chỉ ra làm thế nào những hình ảnh cụ thể có thể đánh lừa một mạng lưới như vậy khi nhận thức các sự vật không có trên ảnh, bởi vì hình ảnh khai thác các mô hình cấp thấp mà hệ thống tìm kiếm. Một trong những cộng sự của Clune, Jason Yosinki, cũng đã xây dựng một công cụ hành động giống như một chiếc gậy do thám trong bộ não. Công cụ này nhắm vào các dây thần kinh nằm giữa mạng lưới và tìm kiếm hình ảnh kích thích nó nhiều nhất. Những hình ảnh hé mở chính là sự trừu tượng (hình ảnh thuộc trường phái ấn tượng đảm nhiệm hình ảnh một con chim hồng hạc hoặc một chiếc xe buýt chở học sinh), làm nổi bật tính chất huyền bí về những khả năng nhận thức của cỗ máy.

Chúng ta cần nhiều hơn cái nhìn thoáng qua về tư duy của AI, tuy nhiên không có giải pháp nào dễ dàng. Sự tác động qua lại của những tính toán bên trong mạng lưới thần kinh sâu chính là thứ quyết định việc nhận dạng mẫu ở cấp độ cao và việc đưa ra quyết định phức tạp, nhưng những tính toán này lại chính là vũng lầy của các hàm và biến số toán học. Jaakklo cho biết: "Nếu bạn có một mạng thần kinh rất nhỏ, thì bạn có thể hiểu được nó. Những một khi nó trở nên rộng lớn, có hàng nghìn đơn vị trong một lớp và có thể có hàng trăm lớp, khi đó nó thực sự không thể hiểu được".

Giáo sư Regina Barzilay của MIT quyết tâm ứng dụng máy học vào y học. Bà được chẩn đoán mắc ung thư vú cách đây vài năm khi 43 tuổi. Bản thân chẩn đoán này đã thực sự gây sốc, nhưng Barzilay còn bị mất tinh thần khi những phương pháp thống kê tiên tiến và học máy đã không được sử dụng để giúp nghiên cứu ung thư hoặc hướng dẫn điều trị cho bệnh nhân. Bà nói AI có tiềm năng vô cùng lớn trong cách mạng hoá y học, nhưng cũng nhận ra tiềm năng đó đồng nghĩa với việc vượt ra khỏi những ghi chép y học. Bà nghĩ đến việc dùng nhiều dữ liệu thô hơn mà hiện tại chưa được dùng đến: "dữ liệu hình ảnh, dữ liệu bệnh lý, tất cả những thông tin này".

Sau khi hoàn thành đợt điều trị ung thư vào năm ngoái, Barzilay cùng các sinh viên tiến hành làm việc với các bác sỹ tại Bệnh Viện tổng hợp Massachusetts để phát triển một hệ thống có khả năng dò tìm những báo cáo bệnh lý nhằm nhận dạng những bệnh nhân có biểu hiện lâm sàng cụ thể mà các nhà nghiên cứu muốn tìm hiểu. Tuy nhiên, Barzilay hiểu rằng hệ thống sẽ cần giải thích về những lập luận của mình. Vì vậy, cùng với Jaakkola và một sinh viên, bà đã thêm vào một bước: hệ thống tách và đánh dấu một đoạn văn bản đại diện cho một mẫu đã được phát hiện ra. Bà cùng những sinh viên đang phát triển thuật toán học sâu có khả năng phát hiện sớm những dấu hiệu của ung thư vú qua hình ảnh chụp quang tuyến vú và họ cũng dự định trang bị cho hệ thống một vài khả năng để giải thích những lập luận của mình.

2. Quân đội Mỹ đã đổ hàng tỉ đô vào các dự án dùng học máy để dẫn đường cho các phương tiện và máy bay, xác định mục tiêu và giúp các nhà phân tích sàng lọc hàng đống các dữ liệu tình báo. Nhiều hơn hẳn bất kỳ lĩnh vực nào, kể cả trong y học, có rất ít không gian cho sự huyền bí của các thuật toán và Bộ Quốc phòng xác định khả năng giải thích là trở ngại chính.

David Gunnung, quản lý chương trình tại Cơ quan dự án nghiên cứu tiên tiến bộ Quốc phòng, đang giám sát một chương trình tên là Explainable Artificial Intelligence (Khả năng giải nghĩa trí tuệ nhân tạo). Gunning, một cựu binh, trước đây giám sát dự án DARPA mà kết quả cuối cùng là tạo ra Siri, cho rằng tự động hoá đang len lỏi vào vô số các lĩnh vực trong quân đội. Các nhà phân tích tình báo đã thử nghiệm học máy để xác định các mẫu từ lượng lớn các dữ liệu giám sát. Nhiều phương tiện cơ giới hoặc máy bay tự hành đã được phát triển và thử nghiệm. Nhưng binh sĩ có thể sẽ không thoải mái trong chiếc xe tăng ‘máy móc' không thể tự giải thích về mình, các nhà phân tích sẽ miễn cưỡng hoạt động dựa trên thông tin mà không có lý lẽ nào. "Thường thì bản chất của những hệ thống học máy là sinh ra rất nhiều cảnh báo giả, vì vậy các nhà phân tích tình báo thực sự cần sự trợ giúp để hiểu tại sao lại phải đưa ra các khuyến cáo", Gunning cho biết.

Tháng ba vừa qua, DARPA đã lựa chọn 13 dự án từ nghiên cứu hàn lâm và công nghiệp để tài trợ cho chương trình của Gunning. Một vài trong số đó do Carlos Guestrin, một giáo sư tại Trường Đại học Washington phụ trách. Ông và các đồng nghiệp đã phát triển một phương thức giúp các hệ thống học máy cung cấp một cơ sở hợp lý cho các tín hiệu đầu ra. Về cơ bản, bằng phương pháp này, một máy tính tự động tìm thấy một số ví dụ từ bộ dữ liệu và chia thành đoạn giải thích ngắn. Lấy ví dụ, một hệ thống được thiết kế để phân loại các tin nhắn email đến từ các tổ chức khủng bố có thể dùng hàng triệu tin nhắn để tập dượt và ra quyết định. Nhưng việc sử dụng cách tiếp cận của nhóm tại trường Đại học Washington có thể làm nổi bật các từ khoá được tìm thấy trong một tin nhắn. Nhóm của Guestrin cũng đưa ra một vài cách để các hệ thống nhận diện hình ảnh ám chỉ suy luận của mình bằng cách làm nổi bật các phần được xem là quan trọng nhất của hình ảnh.

Một trở ngại của phương pháp này và cả những cách khác, tương tự như của Barzilay, là những lời giải thích đưa ra sẽ luôn luôn được đơn giản hoá, nghĩa là một số thông tin quan trọng có thể bị thất thoát trong quá trình phân tích. Guestrin cho biết: "Chúng tôi vẫn chưa đạt được giấc mơ của mình, đó là AI có thể trao đổi với bạn và chúng ta có thể hiểu được nó. Chúng tôi vẫn còn một đoạn đường dài để có thể thực sự hiểu được AI".

Đây là một vấn đề, không chỉ ở những tình huống có tính chất quan trọng như chẩn đoán ung thư hay điều động quân sự. Biết được cách suy luận của AI cũng rất quan trọng nếu công nghệ này trở nên phổ biến và hữu ích với cuộc sống hàng ngày. Tom Gruber, trưởng nhóm Siri của Apple nói, khả năng giải thích là mối quan tâm chính khi cả nhóm tìm cách để khiến Siri trở thành một trợ lý ảo thông minh hơn và tài giỏi hơn. Gruber không thảo luận kế hoạch cụ thể về tương lai của Siri, nhưng rất dễ để hình dung nếu bạn nhận được một lời đề nghị của một nhà hàng từ Siri, bạn sẽ muốn biết lý do là gì. Ruslan Salakhutdinow, giám đốc nghiên cứu AI của Apple và phó giáo sư tại Đại học Carnegie Mellon, coi khả năng giải thích là điểm mấu chốt trong mối quan hệ đang tiến triển giữa con người và những cỗ máy thông minh. Ông nói "Nó là mở đầu cho lòng tin".

3. Cũng giống như nhiều hành vi của con người là không thể giải thích cụ thể được, có lẽ AI sẽ không thể giải thích mọi thứ mình làm. "Thậm chí nếu ai đó có thể đưa cho bạn một lời giải thích nghe có vẻ hợp lý [cho những hành động của họ], thì cũng gần như không hoàn chỉnh và điều tương tự cũng đúng với AI", Clune nói. "Chỉ có một phần nào đó trong bản chất của trí tuệ mới đưa ra được lời giải thích hợp lý. Một vài trong số đó là do bản năng, hoặc tiềm thức, hoặc không thể nhìn thấu được".

Nếu như vậy, tại một số thời điểm chúng ta có thể chỉ đơn giản là tin tưởng vào phán đoán của AI hoặc không dùng đến nó. Tương tự, phán đoán đó sẽ phải hợp nhất với trí tuệ xã hội. Giống như xã hội được xây dựng dựa trên một giao kèo về tư cách đạo đức được mong đợi, chúng ta sẽ cần thiết kế hệ thống AI để tôn trọng và phù hợp với chuẩn mực xã hội. Nếu chúng ta tạo ra những chiếc xe tăng máy móc và những cỗ máy giết người khác thì điều quan trọng là việc ra quyết định của chúng phải phù hợp với những đánh giá đạo đức của chúng ta.

Daniel Dennett là một nhà triết học và khoa học nhận thức nổi tiếng nghiên cứu về ý thức và suy nghĩ tại đại học Tufts. Một chương trong cuốn sách mới nhất của Dennett, "From Bacteria to Bach and Back", một quyển bách khoa toàn thư về nhận thức, giả thuyết một phần bản chất của việc tiến hoá trí tuệ chính là một sự sáng tạo các hệ thống có khả năng thực hiện các công việc mà người tạo ra nó không biết làm thế nào. "Câu hỏi đặt ra là cần phải có những điều chỉnh nào để khiến chúng uyên bác hơn – những tiêu chuẩn nào chúng ta đòi hỏi ở chúng và ở chính chúng ta", Daniel Dennett nói.

Ông cũng có những lời cảnh báo về việc truy tìm khả năng giải thích. "Tôi nghĩ bằng bất kỳ giá nào nếu chúng ta định sử dụng những thứ này và dựa vào nó, thì hãy tìm cách kiểm soát được nhiều nhất cách thức và lý do chúng đưa ra các câu trả lời", Dennet nói. Nhưng vì có quá nhiều câu trả lời không hoàn hảo, chúng ta nên cẩn trọng với những lời giải thích của AI vì dù máy móc có thông minh cỡ nào, chúng ta vẫn phải có những lý lẽ của riêng mình. Ông cho biết: "Máy móc không thể làm tốt hơn chúng ta về việc giải thích những gì chúng làm, vì vậy đừng tin tưởng chúng".

Thu Phan

Theo Technologyreview

Chủ đề khác