Nhà khoa học AI trưởng của Meta mạnh dạn dự đoán: Trí thông minh của máy cuối cùng sẽ vượt qua con người

Đoàn Thúy Hà

Editor
Thành viên BQT
Tóm tắt ý chính:
  • Yann LeCun tin rằng quan điểm cho rằng trí tuệ nhân tạo sẽ lan truyền thông tin sai lệch quá mức và thậm chí dẫn đến sự tuyệt chủng của loài người là quá bi quan.
  • Ông kêu gọi trí tuệ nhân tạo nguồn mở, nói rằng công nghệ này không nên bị kiểm soát bởi một số thực thể.
  • Yann LeCun tin rằng ý tưởng ban đầu của OpenAI là sai lầm và AGI sẽ không sớm xuất hiện.
  • Yann LeCun thừa nhận rằng trí thông minh của máy móc cuối cùng sẽ vượt qua con người, nhưng có thể phải mất nhiều năm, thậm chí hàng thế kỷ.
Nhà khoa học AI trưởng của Meta mạnh dạn dự đoán: Trí thông minh của máy cuối cùng sẽ vượt qua con người
Với tư cách là người đi đầu trong lĩnh vực trí tuệ nhân tạo hiện đại và là nhà khoa học trí tuệ nhân tạo chính của Meta, Yann LeCun là người kiên quyết bảo vệ công nghệ này. Theo quan điểm của ông, những đồng nghiệp luôn thích tưởng tượng rằng trí tuệ nhân tạo sẽ mang đến nhiều kịch bản đen tối khác nhau là quá bi quan, chẳng hạn như họ lo lắng rằng trí tuệ nhân tạo sẽ lan truyền thông tin sai lệch quá mức, thậm chí dẫn đến sự tuyệt chủng của loài người.
Khi Geoffrey Hinton và Yoshua Bengio, cả hai đều được mệnh danh là "bố già của trí tuệ nhân tạo", tuyên bố rằng trí tuệ nhân tạo có thể mang đến "rủi ro xã hội quy mô lớn", Yann LeCun đã chọn cách phản đối và ký một bức thư ngỏ gửi Tổng thống Mỹ Joe Biden kêu gọi ủng hộ trí tuệ nhân tạo nguồn mở và nói rằng trí tuệ nhân tạo “không nên bị kiểm soát bởi một số thực thể”.
Quan điểm của Yann LeCun rất quan trọng, ông được coi là vị thánh bảo trợ của nhân loại trong lĩnh vực trí tuệ nhân tạo. Cùng với Hinton và Bengio, ông là người tiên phong trong phương pháp deep learning, được coi là chìa khóa để nâng cao trình độ trí tuệ nhân tạo. Họ cũng giành được giải thưởng Turing, giải thưởng cao quý nhất trong lĩnh vực máy tính. Năm 2013, Meta đã thuê Yann LeCun làm giám đốc sáng lập Phòng thí nghiệm nghiên cứu trí tuệ nhân tạo Facebook (FAIR).
Yann LeCun cũng thuyết phục CEO Meta Mark Zuckerberg chia sẻ công nghệ trí tuệ nhân tạo của công ty họ. Mùa hè này, Meta đã tung ra mô hình ngôn ngữ lớn (LLM) mã nguồn mở có tên Llama 2 để cạnh tranh với các mô hình lớn từ OpenAI, Microsoft và Google. Tuy nhiên, cũng có những nhà phê bình cho rằng chiến lược nguồn mở này có thể cho phép những người có mục đích xấu "lợi dụng sơ hở" và thay đổi mã để vượt qua các rào chắn an toàn, khiến các mô hình lớn đưa ra sự phân biệt chủng tộc và các nội dung không phù hợp khác. Nhưng Yang Likun cảm thấy rằng con người có khả năng giải quyết tình huống này.
Vào đầu tháng 12 năm nay, khi tham dự hội nghị thường niên NeurIPS có ảnh hưởng ở New Orleans, Yann LeCun đã nhận lời phỏng vấn độc quyền với Steven Levy, biên tập viên của tạp chí Wired. Họ nói về công nghệ nguồn mở, trí tuệ nhân tạo nói chung, trò hề về việc "loại trừ" OpenAI, giám sát trí tuệ nhân tạo và các chủ đề khác. Yann LeCun tin rằng những mối nguy hiểm xung quanh trí tuệ nhân tạo đã bị phóng đại: mặc dù chúng có thể thống trị thế giới nhưng chúng sẽ không chinh phục hay tiêu diệt loài người.
Sau đây là toàn văn cuộc phỏng vấn:
Hỏi: Gần đây ông đã tuyên bố rằng “học máy vẫn còn tệ”. Là người tiên phong về trí tuệ nhân tạo, tại sao ông lại nói điều này?
Yann LeCun: Học máy đã có những tiến bộ vượt bậc, nhưng để đạt đến trí tuệ nhân tạo ngang tầm con người, chúng ta vẫn cần giải quyết nhiều vấn đề. Để làm cho máy móc học hỏi hiệu quả như con người và động vật, chúng ta vẫn cần khám phá một số lĩnh vực chưa biết và vẫn còn một chặng đường dài phía trước. Tôi không cố gắng chỉ trích những hệ thống này hay nói rằng chúng vô dụng, xét cho cùng thì tôi đã nghiên cứu chúng trong suốt sự nghiệp của mình. Nhưng chúng tôi phải hạn chế sự phấn khích quá mức của một số người, bởi vì chỉ quy mô thôi sẽ không thể đưa AI lên ngang tầm con người. Đó hoàn toàn không phải là trường hợp.
Hỏi: Ông có nghĩ rằng ông có trách nhiệm chỉ ra những vấn đề này không?
Yann LeCun: Vâng, tôi nghĩ trách nhiệm của mình là nhắc nhở mọi người về những hạn chế của trí tuệ nhân tạo. Trong khi trí tuệ nhân tạo sẽ mang lại nhiều lợi ích cho thế giới, việc phóng đại quá mức khả năng của nó có thể gây ra sự hoảng loạn và hiểu lầm không đáng có. Đây là một sai lầm mà chúng tôi đã mắc phải với các công nghệ khác đã cách mạng hóa thế giới. Lấy việc phát minh ra máy in vào thế kỷ 15. Mặc dù nó làm thay đổi cơ cấu quyền lực và gây ra xung đột tôn giáo nhưng nó cũng mở ra thời kỳ Khai sáng. Vì vậy, chúng ta cần duy trì lý trí, khách quan và tránh cường điệu hóa AI quá mức.
Hỏi: Tại sao có nhiều nhân vật nổi tiếng trong ngành công nghệ lại đưa ra cảnh báo về sự phát triển nhanh chóng của trí tuệ nhân tạo?
Yann LeCun: Một số người có thể đưa ra cảnh báo vì lo ngại cá nhân hoặc hiểu biết ngây thơ về công nghệ. Nhưng trên thực tế, trí tuệ nhân tạo đã mang lại những lợi ích hữu hình cho nhân loại về nhiều mặt: như giúp giảm bớt những lời nói căm thù, thông tin sai lệch, v.v. Tại Meta, hệ thống trí tuệ nhân tạo có thể xóa trước hầu hết các lời nói căm thù, cải thiện đáng kể hiệu quả và độ chính xác của việc giám sát nội dung. Năm năm trước, khoảng 20%
đến 25% lời nói căm thù sẽ bị hệ thống trí tuệ nhân tạo xóa sớm. Năm ngoái, con số đó đạt tới 95%.
Hỏi: Ông nghĩ gì về chatbot? Liệu chúng có đủ mạnh để thay thế công việc của con người?
Yann LeCun: Chatbot thực sự đã có những tiến bộ vượt bậc, chúng có thể viết những từ rất trôi chảy với nhiều phong cách khác nhau và thậm chí còn nâng cao khả năng sáng tạo của con người ở một mức độ nào đó. Tuy nhiên, họ vẫn gặp phải một số vấn đề, chẳng hạn như khả năng đưa ra những ý tưởng hoặc câu trả lời hoàn toàn sai.
Hỏi: Meta có vẻ rất quan tâm đến việc phát triển công nghệ trí tuệ nhân tạo và áp dụng nó vào các sản phẩm?
Yann LeCun: Meta đang tích cực khám phá nhiều khả năng khác nhau của công nghệ trí tuệ nhân tạo và áp dụng nó vào các sản phẩm. Về lâu dài, hệ thống trí tuệ nhân tạo sẽ trở thành trung gian quan trọng trong giao tiếp của chúng ta với thế giới kỹ thuật số và thậm chí giữa con người với nhau. Mặc dù những công nghệ này vẫn chưa trưởng thành nhưng Meta đang nỗ lực để thúc đẩy sự phát triển của chúng. Ví dụ: giao tiếp với chatbot trên WhatsApp hoặc sử dụng nhiều nội dung được hỗ trợ bởi trí tuệ nhân tạo và dịch thuật theo thời gian thực trong cuộc sống của bạn.
Hỏi: Mark Zuckerberg tham gia như thế nào vào quá trình phát triển trí tuệ nhân tạo của Meta?
Yann LeCun: Zuckerberg rất tham gia. Đầu năm nay, tôi đã có cuộc thảo luận sâu với anh ấy và anh ấy rất hào hứng với tương lai của trí tuệ nhân tạo. Tôi nói với anh ấy rằng trong tương lai, tất cả tương tác của chúng ta với thế giới kỹ thuật số sẽ được thực hiện bằng trí tuệ nhân tạo. Sự xuất hiện của các công nghệ như ChatGPT đã cho phép chúng tôi thấy rằng trí tuệ nhân tạo có thể được áp dụng sớm hơn cho các sản phẩm mới và sự quan tâm của công chúng đối với những tính năng này đã vượt xa sự mong đợi của chúng tôi. Vì vậy, Zuckerberg quyết định thành lập bộ phận sản phẩm tập trung vào trí tuệ nhân tạo để thúc đẩy sự phát triển của lĩnh vực này.
Hỏi: Tại sao Meta quyết định chia sẻ mã Llama với người khác dưới dạng nguồn mở?
Yann LeCun: Bởi vì chúng tôi tin rằng nền tảng mở có thể đẩy nhanh sự phát triển của trí tuệ nhân tạo. Khi nhiều người có thể đóng góp cho nền tảng, hiệu suất và tính bảo mật của hệ thống sẽ được cải thiện tốt hơn. Hãy tưởng tượng một tương lai trong đó tất cả các tương tác của chúng ta với thế giới kỹ thuật số đều được điều phối bởi hệ thống trí tuệ nhân tạo do một số công ty công nghệ lớn kiểm soát. Bạn chắc chắn không muốn hệ thống trí tuệ nhân tạo đó bị một vài công ty công nghệ lớn của Mỹ kiểm soát. Có thể người Mỹ sẽ không quan tâm và chính phủ Mỹ cũng vậy. Nhưng tôi nói cho bạn biết, ở châu Âu, họ không thích điều đó. Họ sẽ nói, "Những người mẫu này làm khá tốt các bài tiếng Anh, nhưng còn các bài tiếng Pháp, tiếng Đức, tiếng Hungary, tiếng Hà Lan hoặc các bài khác thì sao? Bạn đã đào tạo nó như thế nào? Điều này phản ánh văn hóa của chúng tôi như thế nào?"
Hỏi: Đây có vẻ là một cách tuyệt vời để khiến các công ty khởi nghiệp sử dụng sản phẩm của ông và đánh bại đối thủ.
Yann LeCun: Chúng tôi không cố gắng đánh bại bất kỳ ai mà hy vọng sẽ thúc đẩy sự phát triển và ứng dụng công nghệ trí tuệ nhân tạo. Chúng tôi tin rằng nguồn mở là một cách quan trọng để thúc đẩy đổi mới công nghệ và phát triển ngành. Khi một nền tảng trở thành một phần thiết yếu của kết cấu truyền thông, chúng ta cần một cơ sở hạ tầng chung để tạo điều kiện cho sự hợp tác và phát triển.
Hỏi: OpenAI có vẻ không đồng ý với điều này và bản thân ông có vẻ cũng không thích công ty này lắm.
Yann LeCun: Ý kiến của tôi về OpenAI không phải là vấn đề tôi thích hay không mà dựa trên sự hiểu biết và thực tiễn của họ về sự phát triển trí tuệ nhân tạo. Trước hết, tôi nghĩ tầm nhìn ban đầu của OpenAI đã sai, họ đã lên kế hoạch thành lập một tổ chức phi lợi nhuận để nghiên cứu trí tuệ nhân tạo nhằm cân bằng tầm ảnh hưởng của những gã khổng lồ trong ngành. Nhưng tôi nghĩ điều này là sai và nó đã được chứng minh là không thực tế. Thứ hai, rất khó để thực hiện nghiên cứu AI thực sự trừ khi bạn có cách gây quỹ. Cuối cùng, họ phải thành lập một bộ phận hoạt động vì lợi nhuận và nhận đầu tư từ Microsoft. Về cơ bản, họ đã trở thành một chi nhánh nghiên cứu của Microsoft, mặc dù họ vẫn duy trì một mức độ độc lập nhất định. Cuối cùng, OpenAI tin rằng việc đạt được trí tuệ nhân tạo nói chung (AGI) sắp đến gần và sẽ phát triển nó sớm hơn bất kỳ ai khác. Nhưng tôi nghĩ điều đó quá lạc quan và thời gian sẽ trả lời.
Hỏi: Ông nghĩ gì về xung đột nội bộ tại OpenAI khi Sam Altman bị loại khỏi vị trí CEO một thời gian ngắn và sau đó trở lại với một hội đồng quản trị được tái cơ cấu? Ông nghĩ điều này có tác động gì đến cộng đồng nghiên cứu hoặc toàn ngành?
Yann LeCun: Tôi không nghĩ cộng đồng nghiên cứu cần quan tâm quá nhiều đến OpenAI, vì họ không xuất bản tài liệu nghiên cứu cũng như không tiết lộ những gì họ đang làm. Một số đồng nghiệp và sinh viên cũ của tôi làm việc tại OpenAI và tôi cảm thấy tiếc cho họ vì công ty vẫn đang gặp khó khăn. Và nghiên cứu đòi hỏi một môi trường rất ổn định, và khi gặp những sự kiện kịch tính như thế này, con người đầy nghi ngờ về tương lai. Hơn nữa, một khía cạnh quan trọng khác đối với các nhà nghiên cứu là vẫn mở và OpenAI thực sự không còn mở nữa. Vì vậy OpenAI đã thay đổi theo nghĩa họ không còn được coi là những người đóng góp cho cộng đồng nghiên cứu nữa.
Hỏi: Sự thay đổi cấp cao này trong OpenAI được coi là một chiến thắng cho "chủ nghĩa tăng tốc" trong lĩnh vực trí tuệ nhân tạo và chủ nghĩa tăng tốc hoàn toàn trái ngược với lý thuyết ngày tận thế. Tôi biết ông không phải là người theo thuyết ngày tận thế, nhưng ông có phải là người theo chủ nghĩa tăng tốc không?
Yann LeCun: Thực ra, tôi không thích bị xếp vào một trường phái tư tưởng nào cả. Tôi có xu hướng thận trọng và không đẩy bất kỳ ý tưởng nào đến mức cực đoan, bởi những ý tưởng quá cực đoan có thể dễ dẫn đến những quyết định thiếu khôn ngoan.
Hỏi: Liên minh Châu Âu gần đây đã giới thiệu một bộ quy định về trí tuệ nhân tạo, một trong số đó về cơ bản miễn trừ các hạn chế cho các mô hình nguồn mở. Điều này sẽ có tác động gì đến Meta và các công ty khác?
Yann LeCun: Điều này đã có tác động nhất định đến Meta, nhưng chúng tôi có đủ sức mạnh để thích ứng với các quy định pháp lý khác nhau. Việc xây dựng hệ thống AI từ đầu sẽ khó khăn hơn đối với các công ty không có nguồn lực riêng. Họ có thể tận dụng nền tảng nguồn mở để xây dựng hệ thống AI phù hợp với văn hóa, ngôn ngữ và nhu cầu của họ. Trong tương lai, các tương tác của chúng ta với thế giới kỹ thuật số sẽ ngày càng được điều phối bởi các hệ thống trí tuệ nhân tạo và chúng tôi không muốn sự phối hợp đó rơi vào tay một số ít công ty ở California.
Hỏi: Ông đã tham gia vào các cuộc thảo luận liên quan và đưa ra một số đề xuất cho các cơ quan quản lý chưa?
Yann LeCun: Có, mặc dù tôi chưa liên hệ trực tiếp với cơ quan quản lý. Tôi đã đối thoại với các chính phủ, đặc biệt là chính phủ Pháp, nhưng cũng gián tiếp với các nước khác. Về cơ bản, thông điệp của tôi gửi tới họ là: Bạn không muốn cuộc sống số của công dân mình bị một số ít người kiểm soát. Chính phủ Pháp đã sớm chấp nhận quan điểm này. Tuy nhiên, tôi chưa tiếp xúc trực tiếp với những người ở cấp EU, những người bị ảnh hưởng bởi một số lời tiên tri về ngày tận thế và muốn có quy định để ngăn chặn những thảm họa có thể xảy ra. Nhưng quan điểm này bị chính phủ Pháp, Đức và Ý phản đối, những người tin rằng cần có những điều khoản đặc biệt cho các nền tảng nguồn mở.
Hỏi: AI nguồn mở có thực sự khó kiểm soát và điều chỉnh không?
Yann LeCun: Thực ra không phải vậy đâu. Đối với những sản phẩm liên quan đến an toàn, đã có những quy định liên quan để quản lý chúng. Ví dụ: nếu bạn đang sử dụng trí tuệ nhân tạo để phát triển các loại thuốc mới thì đã có sẵn các quy định để đảm bảo an toàn cho các sản phẩm đó. Tôi nghĩ điều này rất hợp lý. Trọng tâm tranh cãi hiện nay là liệu việc quản lý hoạt động nghiên cứu và phát triển trí tuệ nhân tạo có ý nghĩa hay không? Tôi không nghĩ điều này sẽ làm được gì nhiều.
Hỏi: Liệu ai đó có thể sử dụng một hệ thống nguồn mở phức tạp do một công ty lớn phát hành, cải tiến nó và sử dụng nó để chiếm lĩnh thế giới không? Bằng cách truy cập mã nguồn và trọng số (các giá trị số được sử dụng để đo lường và điều chỉnh tầm quan trọng tương đối của các tính năng và thông số khác nhau), những kẻ khủng bố hoặc kẻ mạo danh có thể gây ra tác động tiêu cực đến hệ thống AI.
Yann LeCun: Họ cần triển khai 2.000 GPU ở một nơi mà không ai biết, việc này đòi hỏi rất nhiều tiền và tài năng để hoàn thành công việc. Chúng ta có thể đón đầu xu hướng bằng cách liên tục tiến bộ và cách để đạt được tiến bộ nhanh hơn là mở rộng nghiên cứu và để cộng đồng rộng lớn hơn đóng góp vào nghiên cứu đó.
Hỏi: Ông định nghĩa trí tuệ nhân tạo tổng hợp (AGI) như thế nào?
Yann LeCun: Cá nhân tôi không thích khái niệm “trí tuệ nhân tạo tổng hợp” vì theo tôi, không có trí thông minh tổng hợp thực sự. Trí thông minh không phải là một khái niệm tuyến tính duy nhất có thể đo lường được mà liên quan đến nhiều loại thực thể và kỹ năng thông minh khác nhau.
Hỏi: Một khi chúng ta thành công trong việc đưa máy tính đạt đến mức độ thông minh như con người, Ông có nghĩ chúng sẽ dừng ở đó không? Hay kiến
thức sâu rộng, khả năng toán học vượt trội và các thuật toán tiên tiến hơn của họ sẽ tạo ra cái gọi là “siêu trí tuệ”?
Yann LeCun: Tôi không nghi ngờ gì về điều này. Về lâu dài, trí thông minh của máy móc cuối cùng sẽ vượt qua con người. Việc này sẽ mất bao lâu, có thể là nhiều năm hay nhiều thế kỷ, chúng tôi không biết.
Hỏi: Chúng ta có nên chuẩn bị trước khi thời điểm đó đến không?
Yann LeCun: Khi ngày đó thực sự đến, chúng ta sẽ có những trợ lý thông minh, giống như làm việc với một nhóm người siêu thông minh. Tất nhiên, họ không phải là con người thực sự. Một số người có thể hoảng sợ về điều này, nhưng tôi rất mong chờ nó. Bởi vì làm việc với những người thông minh hơn tôi chắc chắn sẽ cải thiện được khả năng của tôi.
Hỏi: Nhưng nếu máy tính trở nên siêu thông minh thì tại sao chúng lại cần đến chúng ta?
Yann LeCun: Chỉ vì hệ thống trí tuệ nhân tạo thông minh không có nghĩa là chúng sẽ có mong muốn thống trị con người. Trên thực tế, nếu chúng ta thiết kế đúng, họ sẽ không có động lực như vậy.
Hỏi: Nhưng điều gì sẽ xảy ra nếu điều gì đó bất ngờ xảy ra và hệ thống AI theo đuổi mục tiêu trong khi phớt lờ sự an toàn của con người, như triết gia Nick Bostrom đã đề xuất “giả thuyết kẹp giấy”? (Giả thuyết đặt ra là một hệ thống AI được yêu cầu sản xuất càng nhiều kẹp giấy càng tốt có thể tiêu diệt toàn bộ nhân loại trong quá trình tối đa hóa sản xuất.)
Yann LeCun: Sẽ rất vô trách nhiệm nếu chúng ta xây dựng một hệ thống trí tuệ nhân tạo mà không đặt ra bất kỳ hạn chế và biện pháp bảo vệ nào. Nó giống như việc chế tạo một chiếc ô tô có công suất trên 1.000 mã lực nhưng không có hệ thống phanh. Do đó, điều quan trọng là phải đặt ra các mục tiêu thúc đẩy rõ ràng cho các hệ thống trí tuệ nhân tạo và đảm bảo khả năng kiểm soát của chúng, mà tôi gọi là "AI hướng đến mục tiêu". Hiện tại, chúng tôi chưa có bất kỳ trường hợp ứng dụng thực tế nào có liên quan.
Hỏi: Đây có phải là hướng nghiên cứu chính hiện tại của ông không?
Yann LeCun: Đúng vậy. Trọng tâm của ý tưởng là đặt ra các mục tiêu rõ ràng cho hệ thống AI và đảm bảo rằng hành vi của nó luôn nhất quán với các mục tiêu đó. Đồng thời, những mục tiêu này cũng nên bao gồm một số hạn chế để ngăn chặn các tình huống nguy hiểm xảy ra. Chỉ bằng cách này, tính bảo mật và khả năng kiểm soát của hệ thống trí tuệ nhân tạo mới có thể thực sự được đảm bảo.
Hỏi: Ông có nghĩ mình sẽ hối hận khi phát triển trí tuệ nhân tạo không?
Yann LeCun: Nếu tôi thực sự hối hận thì có lẽ tôi sẽ không tiếp tục làm công việc hiện tại nữa.
Hỏi: Ông yêu thích nhạc jazz. Vậy liệu trí tuệ nhân tạo có thể tạo ra những tác phẩm sánh ngang với con người mà cho đến nay chỉ có con người mới có thể tạo ra? Nó có thể tạo ra công việc bằng tâm hồn không?
Yann LeCun: Vấn đề này rất phức tạp. Ở một mức độ nào đó, hệ thống trí tuệ nhân tạo cuối cùng sẽ có thể tạo ra âm nhạc, nghệ thuật thị giác và các tác phẩm khác tương tự và thậm chí có thể có chất lượng cao hơn con người. Tuy nhiên, hệ thống AI không thể ứng biến như con người vì âm nhạc ngẫu hứng dựa vào cảm xúc và giao tiếp cảm xúc của con người. Ít nhất là chưa. Đó là lý do tại sao bạn nên nghe nhạc jazz trực tiếp.
Hỏi: Ông chưa trả lời câu hỏi của tôi là âm nhạc đó có linh hồn không?
Yann LeCun: Một số bản nhạc không có hồn, chỉ được chơi làm nhạc nền trong nhà hàng. Âm nhạc chủ yếu được tạo ra bằng máy để đáp ứng nhu cầu thị trường.
Hỏi: Nhưng điều tôi đang nói đến là đỉnh cao của nghệ thuật. Nếu tôi chơi một bản nhạc vượt xa đẳng cấp cao nhất của Charlie Parker và nói với ông rằng nó được tạo ra bởi trí tuệ nhân tạo, ông có cảm thấy bị lừa không?
Yann LeCun: Vâng, ở một mức độ nào đó. Bởi âm nhạc không chỉ là trải nghiệm thính giác mà nó còn liên quan đến nhiều yếu tố khác như văn hóa. Tính xác thực là một phần quan trọng của trải nghiệm nghệ thuật.
Hỏi: Nếu một hệ thống AI đủ tốt để sánh ngang với thành tích của các nghệ sĩ nổi tiếng, nhưng ông không biết câu chuyện đằng sau nó, thì thị trường sẽ tràn ngập âm nhạc đẳng cấp Charlie Parker và chúng ta sẽ không thể kể được sự khác biệt.
Yann LeCun: Tôi không nghĩ có vấn đề gì. Vì lý do tương tự, tôi vẫn sẵn sàng trả 300 đô la cho một chiếc bát được làm thủ công từ hàng trăm năm trước, mặc dù tôi có thể mua được thứ gì đó trông gần giống như vậy với giá 5 đô la. Chúng tôi vẫn đến và nghe các nhạc sĩ nhạc jazz yêu thích của tôi biểu diễn trực tiếp, mặc dù họ có thể bị bắt chước. Nhưng trải nghiệm của hệ thống trí tuệ nhân tạo thì khác.
Hỏi: Gần đây ông đã nhận được Chevalier de la Legion d'Honneur từ Tổng thống Pháp, ông có nghĩ rằng một mô hình AI có thể giành được giải thưởng này không?
Yann LeCun: Điều đó khó có thể xảy ra trong thời gian ngắn và cá nhân tôi không nghĩ đó là một ý tưởng hay.
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top