Nhà khoa học đoạt giải Turing: AI giống như một nhà tiên tri, giỏi dự đoán sự phức tạp nhưng không giải thích được

Đoàn Thúy Hà

Editor
Thành viên BQT
Kể từ đầu năm 2023, ChatGPT đã khiến thế giới chìm trong cơn cuồng nhiệt của AI. Với sự xuất hiện của GPT-4, những khả năng mạnh mẽ khác nhau đã xuất hiện khiến mọi người cảm thấy rằng chỉ trong vài năm nữa, AI sẽ trở thành một sự tồn tại toàn năng và lật đổ hoàn toàn xã hội và cuộc sống của chúng ta. Nhưng dựa trên mô hình ngôn ngữ lớn, đâu là giới hạn trên AI của mô hình Transformer? Nó thực sự có thể thay thế hoàn toàn chúng ta? Đã có rất nhiều câu trả lời cho câu hỏi này, phe tích cực tin rằng mô hình ngôn ngữ lớn sẽ mang đến một kỷ nguyên mới, rất gần với trí tuệ nhân tạo có thể hoàn thành mọi công việc của con người, phe tiêu cực cho rằng đó chỉ là một con vẹt ngẫu hứng. và không thể hiểu thế giới chút nào. Nhưng dù bên nào trong cuộc tranh luận đều thiếu sự diễn giải đầy đủ và hệ thống.
Để trả lời câu hỏi này, người khổng lồ trong ngành trí tuệ nhân tạo đã giành được giải thưởng Turing Joseph Shifakis đã giải thích lý thuyết của mình từ quan điểm của các nguyên tắc nhận thức. Những phản ánh kéo dài hàng thập kỷ về những gì trí tuệ nhân tạo có thể và không thể làm, những con đường và rủi ro tiềm ẩn đối với AGI.
Nhà khoa học đoạt giải Turing: AI giống như một nhà tiên tri, giỏi dự đoán sự phức tạp nhưng không giải thích được
Trong cuộc trò chuyện dưới đây, Joseph Shifakis đã phân biệt rõ ràng sự khác biệt giữa trí tuệ nhân tạo hiện tại và con người: con người có kiến thức thông thường và khả năng trừu tượng để hình thành các mô hình, điều mà trí tuệ nhân tạo mô hình hiện tại không thể đạt được, vì vậy họ không thể hình thành một sự đổi mới có tính nguyên tắc. Nhưng bản thân trí tuệ nhân tạo có thể dự đoán những điều phức tạp có thể có một số lượng lớn các biến số mà không cần nắm vững các nguyên tắc. Đây là điều mà con người không thể đạt được do khả năng nhận thức hạn chế. Do đó, không thể để con người bị nó thay thế hoàn toàn trong khuôn khổ trí tuệ nhân tạo hiện tại, chúng ta nên để AI phát triển một “khoa học mới” cho mình.
Dựa trên sự phân chia khả năng rõ ràng như vậy, nhiều lý thuyết về mối đe dọa AI là không thể kiểm chứng về mặt logic.
Mặc dù những lo lắng của chúng ta về việc bị thay thế hoàn toàn bởi AI có thể tạm thời được gác lại, nhưng sự thay thế không hoàn toàn cũng đồng nghĩa với tình trạng thất nghiệp nghiêm trọng và các vấn đề xã hội khác. Hippakis thừa nhận rằng AI có thể khiến tỷ lệ thất nghiệp tăng mạnh và vấn đề này rất khó giải quyết trong cấu trúc xã hội hiện tại. Là một người lạc quan về công nghệ, ông tin rằng sự cải tiến của công nghệ chắc chắn sẽ mang lại sự gia tăng phúc lợi cho con người, nhưng tiền đề để nhận ra điều đó là việc xã hội ứng dụng công nghệ phải nhằm mục đích cải thiện đời sống con người.
Nhưng câu hỏi là, bây giờ chúng ta có thực sự đi trên con đường đó không? Cả Liên minh Châu Âu và Hoa Kỳ đang xây dựng các quy định tương ứng để ngăn chặn việc lạm dụng AI và có tác động hủy hoại đối với xã hội do lạm dụng. Nhưng đây là một biện pháp bảo vệ chống lại các mối đe dọa hơn là hướng dẫn phân phối. Hippakis rõ ràng là không hài lòng với điều này, nghĩ rằng chúng giống như những danh sách mong muốn hơn là những quy định nghiêm túc có thể thực sự thay đổi xã hội.
Mặc dù con đường vẫn chưa rõ ràng, nhưng đích đến hoàn toàn rõ ràng đối với Hippakis: kịch bản tốt nhất cho con người là sự hợp tác hài hòa giữa máy móc và con người. Và trong quá trình này, con người sẽ làm chủ được mọi quá trình phát triển và ứng dụng tri thức, đảm bảo rằng những cỗ máy này sẽ không tự mình đưa ra những quyết định quan trọng cho chúng ta.

AI hiện tại còn lâu mới bằng AGI

Sự xuất hiện của ChatGPT có ý nghĩa gì đối với trí tuệ nhân tạo? Nó là một mô hình mới, hay hơn thế nữa là một ứng dụng cụ thể của một mô hình hiện có?
Joseph Shifakis:
Tôi nghĩ rằng sự xuất hiện của ChatGPT và các mô hình ngôn ngữ khác là một bước quan trọng trong sự phát triển của trí tuệ nhân tạo. Trên thực tế, chúng ta đã trải qua một sự thay đổi mô hình cho phép trả lời hầu hết mọi truy vấn bằng ngôn ngữ tự nhiên, thường có câu trả lời rất phù hợp với câu hỏi. Các mô hình ngôn ngữ lớn giải quyết các vấn đề lâu dài trong xử lý ngôn ngữ tự nhiên. Đây là một lĩnh vực mà các nhà nghiên cứu đã không thành công trong nhiều thập kỷ, được tiếp cận theo cách truyền thống bởi trường phái tư tưởng tượng trưng, tách biệt cú pháp và ngữ nghĩa của ngôn ngữ để xây dựng các quy tắc của trí tuệ nhân tạo.
Giờ đây, các mô hình ngôn ngữ lớn có một cách tiếp cận khác và họ coi nghĩa của một từ được xác định bởi tất cả các ngữ cảnh mà từ đó được sử dụng. Họ sử dụng máy học để thực hiện các phép tính phân phối xác suất. Đối với các từ, phân phối xác suất này được sử dụng để dự đoán từ tiếp theo có nhiều khả năng nhất trong một câu. Đây là một phương pháp rất đơn giản nhưng hiệu quả. Nó hơi ngây thơ, nhưng nó trở nên tuyệt vời để tóm tắt văn bản. Tất nhiên, bản chất của giải pháp mà nó sử dụng cũng xác định những hạn chế của nó. Các mô hình ngôn ngữ rất phù hợp để tạo bản tóm tắt một số văn bản hoặc thậm chí viết thơ. Nếu bạn biến nó thành một bản tóm tắt về lịch sử Trung Quốc thế kỷ 20, nó có thể làm rất tốt. Nhưng mặt khác, nếu bạn hỏi một số câu hỏi rất chính xác hoặc giải quyết một số vấn đề logic rất đơn giản, nó có thể sai. Chúng ta có thể hiểu điều này vì loại câu hỏi này là mô hình độc lập với ngữ cảnh, do đó, chúng ta không thể kiểm tra tính mạch lạc của văn bản và câu trả lời mà nó cung cấp.
Có nhiều công nghệ mới đang nổi lên, chẳng hạn như cây logic (LOT), có thể giúp máy móc tự hướng dẫn để hiểu các quy trình logic. Giờ đây, các mô hình ngôn ngữ lớn đang tự đào tạo để phát triển các quy trình logic cụ thể hoặc phức tạp hơn. Có nhiều lớp trong một mạng lưới thần kinh và cấp độ càng cao thì hiểu biết càng trừu tượng. Liệu có thể tồn tại thứ gì đó giống như mô hình hoặc sự hiểu biết cấu trúc về thế giới trong các tế bào thần kinh cấp cao hơn này không?
Joseph Schiffakis
: Trong cuốn sách Hiểu biết và thay đổi thế giới, tôi giải thích rằng con người và máy móc phát triển và áp dụng các loại kiến thức khác nhau. Kiến thức này cho phép con người và máy móc giải quyết các loại vấn đề khác nhau, tùy thuộc vào mức độ hợp lý và tổng quát của nó. Một sự khác biệt quan trọng là giữa "kiến thức khoa học và kỹ thuật" và "kiến thức thực nghiệm ngầm có được thông qua học tập". Ví dụ, khi tôi nói chuyện, khi tôi đi bộ, bộ não của tôi thực sự giải quyết những vấn đề rất khó, nhưng tôi không hiểu cách chúng hoạt động và mạng lưới thần kinh tạo ra cùng một kiến thức thực nghiệm tiềm ẩn cho phép chúng ta giải quyết vấn đề, trong khi nó không cần thiết để hiểu cách chúng hoạt động.
Đây là những gì chúng tôi gọi là kiến thức dựa trên dữ liệu hoặc dựa trên dữ liệu. Ngược lại, điều rất quan trọng là kiến thức khoa học và kỹ thuật dựa trên việc sử dụng các mô hình toán học mang lại sự hiểu biết sâu sắc về các hiện tượng vật lý của các đối tượng và thành phần. Ví dụ, khi bạn xây một cây cầu, bạn có thể chắc chắn (theo nguyên tắc của nó) rằng cây cầu sẽ không bị sập trong nhiều thế kỷ tới. Tuy nhiên, với mạng nơ-ron, chúng ta có thể đưa ra một số dự đoán nhất định, nhưng chúng ta không hiểu cách chúng hoạt động và không thể xây dựng một lý thuyết giải thích hành vi của mạng nơ-ron. Thuộc tính này làm cho các mô hình ngôn ngữ lớn bị hạn chế nghiêm trọng trong các ứng dụng quan trọng mà không có sự tham gia của con người.
Câu hỏi đặt ra là liệu các hệ thống GPT-LM này có thể đạt được trí thông minh ở cấp độ con người hay không. Đây là vấn đề. Tôi nghĩ rằng có rất nhiều nhầm lẫn về trí thông minh là gì và làm thế nào để đạt được nó. Vì nếu không có khái niệm rõ ràng về trí thông minh, chúng ta không thể phát triển các lý thuyết về cách thức hoạt động của nó, và không thể định nghĩa rõ ràng về trí thông minh.
Và ngày nay có rất nhiều nhầm lẫn. Gần đây, tôi đã viết một bài báo thảo luận về vấn đề này. Trên thực tế, nếu bạn mở một cuốn từ điển, chẳng hạn như Từ điển Oxford, bạn sẽ thấy rằng trí thông minh được định nghĩa là khả năng học, hiểu và suy nghĩ về thế giới, cũng như đạt được mục tiêu và hành động có mục đích.
Máy móc có thể làm những điều ấn tượng. Họ có thể vượt qua con người trong các trò chơi. Họ có khả năng thực hiện các nhiệm vụ khác nhau. Những thành tựu to lớn cũng đã được thực hiện gần đây. Họ có thể thực hiện các nhiệm vụ liên quan đến khả năng giác quan, chẳng hạn như nhận dạng hình ảnh. Tuy nhiên, máy móc không thể vượt qua con người khi xét về nhận thức tình huống, khả năng thích ứng với sự thay đổi của môi trường và tư duy sáng tạo.
Rất đơn giản, GPT dịch ngôn ngữ tự nhiên rất tốt, nhưng lại không lái được ô tô. Bạn không thể sử dụng GPT để lái xe ô tô. Giữa họ vẫn còn một khoảng cách lớn. Tôi nghĩ rằng chúng ta vẫn còn một chặng đường dài để đi. Ngày nay chúng ta chỉ có AI yếu, chúng ta chỉ có một số thành phần của trí thông minh chung. Chúng ta cần một cái gì đó nhiều hơn nữa.
Tôi nghĩ rằng một bước quan trọng đối với trí thông minh chung sẽ là các hệ thống tự trị. Giờ đây, khái niệm đã rõ ràng rằng các hệ thống tự trị phát sinh từ nhu cầu tự động hóa hơn nữa các tổ chức hiện có bằng cách thay thế con người bằng các tác nhân tự trị,
điều này cũng được dự kiến bởi Internet of Things. Trên thực tế, chúng ta đang nói về ô tô tự lái, lưới điện thông minh, nhà máy thông minh, trang trại thông minh, mạng viễn thông thông minh hơn. Các hệ thống này khá khác với AI yếu ở chỗ chúng bao gồm các tác nhân bị hạn chế trong thời gian thực và phải giải quyết nhiều mục tiêu khác nhau. Những mục tiêu này liên quan đến những thay đổi trong hành động và hoạt động trong nhiều lĩnh vực khác nhau và GPT không giỏi việc này, nó giỏi xử lý ngôn ngữ tự nhiên và chuyển đổi tài liệu. Ngoài ra, chúng ta cần các hệ thống có thể hoạt động hài hòa với các tác nhân của con người. Tất cả những điều này là không thể với các mô hình ngôn ngữ khác. Vì vậy, chúng ta vẫn còn khá xa trí tuệ nhân tạo nói chung. Tất nhiên, tất cả đều tóm tắt chính xác những gì chúng ta coi là trí thông minh, bởi vì nếu trí thông minh được định nghĩa chỉ là các cuộc trò chuyện và trò chơi, thì chúng ta đã đạt đến trí thông minh nhân tạo nói chung, nhưng tôi không đồng ý với định nghĩa đó.
Bài kiểm tra trí thông minh tiêu chuẩn trong quá khứ là bài kiểm tra Turing. Rõ ràng GPT đã vượt qua bài kiểm tra Turing về khả năng đối thoại, nhưng đó không phải là trí thông minh tự chủ. Trong trường hợp này, làm thế nào chúng ta có thể đánh giá trí thông minh của AI?
Joseph Schifakis
: Gần đây tôi đã viết một bài báo cho rằng bài kiểm tra Turing là không đủ. Tôi nghĩ ra một bài kiểm tra khác, mà tôi gọi là bài kiểm tra thay thế. Trên thực tế, ý tưởng là nếu tôi có thể thay thế một cỗ máy bằng một tác nhân khác đang thực hiện một nhiệm vụ, tôi sẽ nói rằng tác nhân này cũng thông minh như tác nhân thực hiện nhiệm vụ đó. Nếu tôi có thể khiến một cỗ máy lái ô tô, dạy một con người hoặc trở thành một bác sĩ phẫu thuật giỏi, thì tôi sẽ nói rằng một cỗ máy cũng thông minh như con người.
Vì vậy, nếu bạn lấy định nghĩa đó, thay vì thử nghiệm, bạn sẽ nghĩ rằng trí thông minh của con người thực sự là sự kết hợp của các kỹ năng. Vậy bạn có hiểu chúng ta cách trí thông minh chung bao xa không? Trong thử nghiệm thay thế này, một số hành động có thể phải được thực hiện bởi máy móc, chẳng hạn như rô-bốt. Khi bạn muốn làm vườn, bạn cần một con robot để làm việc đó. GPT chỉ là một mô hình ngôn ngữ, nó không bao gồm các bộ phận robot này.
Theo định nghĩa của ông, chỉ khi máy tính và hệ thống có thể tự động thực thi một lượng lớn văn bản và thích ứng với môi trường thay đổi, chúng ta mới có thể thấy khoảng cách giữa trí tuệ nhân tạo và trí tuệ con người biến mất. Và giờ đây, các ứng dụng như AutoGPT hoặc Baby AGI có thể chia nhiệm vụ thành các bước khác nhau và cố gắng đạt được mục tiêu của nhiệm vụ thông qua các quy trình khác nhau. Nó khá tự động theo một cách nào đó. Ông có nghĩ rằng nó đang tiến gần hơn đến AGI trong quá trình này không?
Joseph Schifakis:
Có nhiều vấn đề ở đây, bao gồm cả các vấn đề về kỹ thuật hệ thống. Có một tác nhân siêu trí tuệ là chưa đủ, bởi vì bạn còn phải đảm bảo rằng hành vi của nó có thể được giải thích. Đây cũng là một vấn đề mà tôi thảo luận nhiều trong luận án của mình, đó là vấn đề trí tuệ nhân tạo có thể giải thích được hay trí tuệ nhân tạo an toàn mà mọi người đang nói đến.
Điều mọi người không hiểu là với mạng lưới thần kinh, chúng ta không thể hiểu hành vi của họ. Rõ ràng là bạn không thể giải thích tại sao nó lại tạo ra kết quả như vậy, vì bạn không thể có một mô hình toán học để mô tả hành vi của chúng. Tất nhiên, chúng tôi hoàn toàn hiểu cách tính toán các hàm toán học của từng nút của mạng thần kinh. Nó chỉ là sự kết hợp tuyến tính của các đầu vào, cộng với một số chức năng phi tuyến tính, vì vậy chúng ta có thể hiểu hành vi của từng nút. Nhưng khi chúng ta cố gắng hiểu các thuộc tính mới nổi của toàn bộ mạng lưới thần kinh, chúng ta thất vọng. Nhưng đây không phải là vấn đề riêng của AI, nó là vấn đề chung của khoa học.
Bạn không thể suy ra tính chất của nước chỉ từ tính chất của các nguyên tử oxy và hydro. Ngay cả khi bạn hoàn toàn hiểu điều này, vẫn có một vấn đề về quy mô và độ phức tạp. Đây là điểm tuyệt vọng. Chúng ta không thể sử dụng logic của sự kết hợp công nghệ hoặc chủ nghĩa giản lược để hiểu hành vi tổng thể của mạng nơ-ron thông qua hành vi của các phần tử trong đó. Vì vậy, cách duy nhất chúng ta có thể áp dụng nó vào mạng thần kinh là kiểm tra nó, bởi vì chúng ta không thể xác minh hành vi của nó và chúng ta không thể suy luận về nó. Nhưng chỉ áp dụng các bài kiểm tra có nghĩa là bạn đang thực hiện một phương pháp hoàn toàn thử nghiệm hơn là hiểu biết lý thuyết. Vì vậy, loại nội dung mà bạn thực sự có thể kiểm tra rất khác nhau: ví dụ: bạn không thể kiểm tra các vấn đề bảo mật toàn diện vì bạn không thể phân tích hành vi tổng thể. Nhưng bạn có thể thực hiện kiểm tra bảo mật một cách phòng thủ.
Chúng ta luôn áp dụng thử nghiệm cho phần cứng và phần mềm. Nhưng để kiểm tra, bạn phải có tiêu chí về thời gian kiểm tra. Đối với phần cứng và phần mềm, chúng tôi có các mô hình và tiêu chuẩn bảo hiểm. Nhưng đối với mạng thần kinh, chúng ta không có tiêu chuẩn đó. Tôi không nói rằng đây là một vấn đề rất khó giải. Đối với các mạng thần kinh, chúng ta có một số giải pháp thay thế, chẳng hạn như các ví dụ đối nghịch. Nhưng những thao tác này đã phá vỡ sự mạnh mẽ nhất định trong hành vi của chúng . Vì vậy, bạn thấy đấy, nếu tôi hỏi bạn một câu hỏi, bạn sẽ đưa ra câu trả lời. Nếu tôi sửa đổi câu hỏi của bạn một chút, bạn sẽ đưa ra một số câu trả lời tương tự nếu bạn là con người. Nhưng chúng tôi biết rằng khi chúng tôi thay đổi một chút đầu vào thành nơ-ron, phản hồi có thể rất khác. Vì vậy, đây cũng là một điều cần xem xét.

Sự xuất hiện không bao giờ có thể được hiểu​

Ông có nghĩ rằng sự xuất hiện của khái niệm này, tức là sự chuyển đổi từ các khả năng cơ bản sang các khả năng nâng cao hơn, là không thể giải thích được không?
Joseph Schifakis:
Đúng vậy. Bạn lấy ra một môn học chẳng hạn như vật lý. Vật lý là một môn học rất trưởng thành. Các nhà vật lý cố gắng tạo mối liên hệ hợp lý giữa lý thuyết hạt, lý thuyết lượng tử hoặc thuyết tương đối rộng và tôi không nghĩ họ sẽ thành công trong việc đó vì có vấn đề về quy mô. Tôi nghĩ những vấn đề tương tự tồn tại trong bất kỳ loại hệ thống nào.
Vì vậy, theo ý kiến của ông, vì hiện tượng không thể giải thích này, chúng ta thực sự không thể dự đoán mô hình ngôn ngữ lớn có thể làm gì?
Joseph Schifakis:
Rõ ràng là chúng ta không thể xây dựng một mô hình để dự đoán những gì nó có thể làm. Chúng ta không thể xây dựng các mô hình, ý tôi là các mô hình toán học. Ở đây, cộng đồng AI sử dụng từ mô hình có nghĩa là một mạng lưới thần kinh, đây là một nguồn gây nhầm lẫn.
Tôi nghĩ chúng ta nên thực hiện một cách tiếp cận toàn diện khác. Vì chúng ta không thể hình thành một mô hình phù hợp, nên có lẽ chúng ta có thể có một cách hình thành một lý thuyết dựa trên các thử nghiệm và quan sát thực nghiệm. Nó được cho là một lý thuyết kiểm tra về các thuộc tính thống kê. Nhưng theo hiểu biết của tôi, chúng ta có một số nhu cầu khó đáp ứng về mặt kỹ thuật trong các mạng thần kinh ngày nay.
Đúng. Vì vậy, để hiểu được những khả năng xuất hiện từ họ, chúng ta cần thiết lập một bộ môn như tâm lý học để hiểu nó?
Joseph Schifakis
: Chính xác. Đó là một câu hỏi hay. Nhưng sẽ có một chút vấn đề khi sử dụng chính GPT để thiết lập sự hiểu biết như vậy. Bởi vì trên thực tế hiện nay có người nói rằng GPT vượt qua kỳ thi để trở thành luật sư hoặc bác sĩ, vậy tại sao một GPT như vậy không thể trở thành bác sĩ hoặc luật sư?
Tôi nghĩ đây là một lập luận rất thú vị, nhưng nó liên quan đến vấn đề về độ bền mà tôi đã đề cập trước đó. Cũng vượt qua kỳ thi, khả năng giữa con người và mạng lưới thần kinh là rất khác nhau.
Câu hỏi về sự mạnh mẽ là nếu bạn hỏi một người tỉnh táo để trả lời câu hỏi, nếu bạn thay đổi câu hỏi một chút, câu trả lời sẽ tương tự. GPT không đảm bảo tính đồng nhất của câu trả lời. Một vấn đề khác là con người có thể dựa vào logic để kiểm soát những gì họ làm và những gì họ nên nói. Nhưng vì một mạng thần kinh, điển hình như ChatGPT, không có quyền kiểm soát ngữ nghĩa đối với những gì nó làm, nên nó có thể làm những việc rõ ràng là sai. Không có người hợp lý sẽ làm cho sai lầm này. Vì vậy, kết luận của toàn bộ lập luận là nếu GPT có thể kiểm soát một cách hợp lý tính nhất quán của những gì nó nói và nếu nó mạnh mẽ tương ứng, thì việc cho phép GPT trở thành luật sư sẽ là điều tuyệt vời. Nhưng chúng ta thực sự còn cách xa trình độ trí tuệ nhân tạo này.
Vì sao ChatGPT khó kiểm soát? Có phải vì nó là một tính năng tính toán phân tán của máy tính?
Joseph Schifakis
: GPT là một loại máy tính khác. Nó là một máy tính tự nhiên. Nó không phải là một máy tính thực thi các chương trình trong khi bạn viết chúng, bạn có quyền kiểm soát tuyệt đối những gì hệ thống có thể và không thể làm. Khi bạn đào tạo một mạng lưới thần kinh, bạn sẽ mất quyền kiểm soát đó. Các hệ thống này có thể sáng tạo theo một nghĩa nào đó vì chúng có mức độ tự do.
Bây giờ, nếu chúng ta có thể kiểm soát các bậc tự do này và hiểu cách chúng hoạt động, chúng ta sẽ ổn thôi. Vấn đề là chúng ta không kiểm soát được mức độ tự do to lớn này của mạng lưới thần kinh, và về mặt lý thuyết thì gần như không thể kiểm soát được nó. Bạn có thể ước tính sơ bộ về cách chúng hoạt động, nhưng bạn sẽ không có kết quả chính xác. Nếu bạn có một chương trình máy tính truyền thống, ngay cả khi đó là một chương trình dài, bạn vẫn có thể trích xuất mô hình ngữ nghĩa và hiểu những gì đang diễn ra trong đó. Đây là một sự khác biệt rất quan trọng.
Ông có thể nói chi tiết hơn về khái niệm máy móc tự nhiên không?
Joseph Schifakis
: Cỗ máy tự nhiên là trí thông minh sử dụng các hiện tượng tự nhiên. Ví dụ, mạng thần kinh là một cỗ máy tự nhiên tương tự như máy tính lượng tử hoặc các máy tính khác. Trước đây, khi tôi còn là sinh viên, chúng tôi cũng có rất nhiều máy tính. Khi xây dựng cỗ máy tự nhiên này, chúng tôi sẽ sử dụng một số nguyên tắc trong hiện tượng vật lý, bởi vì bất kỳ hiện tượng vật lý nào cũng chứa một số nội dung thông tin. Ví dụ, khi tôi ném một hòn đá, hòn đá giống như một chiếc máy tính, nó tính toán một đường parabol, tạo thành một thuật toán. Bạn có thể quan sát bất kỳ hiện tượng nào và bạn có thể sử dụng các hiện tượng tự nhiên để xây dựng máy tính. Nhưng những máy tính này không được lập trình sẵn. Họ khai thác một số định luật trong vật lý hoặc toán học. Đây là trường hợp với mạng lưới thần kinh.
Hãy nói về một số nội dung khác trong cuốn sách của bạn, bạn đã thảo luận về một số vấn đề nghiên cứu và đổi mới. Chúng ta đều biết rằng mặc dù nhiều ý tưởng về mạng thần kinh đến từ Châu Âu hoặc Nhật Bản, nhưng các công ty sử dụng nó và sản xuất các sản phẩm, chẳng hạn như OpenAI và Deepmind, đều ở Hoa Kỳ. Ông nghĩ đâu là nguyên nhân của chuyện này?
Joseph Schifakis:
Có sự khác biệt giữa sự chú ý và sự đổi mới. Vì đổi mới sáng tạo là khả năng ứng dụng nghiên cứu để phát triển sản phẩm hoặc dịch vụ mới nhằm đạt được những đột phá về công nghệ.
Tôi nghĩ đó là một lợi thế rất mạnh của Mỹ, họ đã làm rất tốt việc đổi mới. Điều này bắt đầu ở California, nơi bạn có cái mà tôi gọi là hệ sinh thái đổi mới. Hệ sinh thái đổi mới tập hợp các tổ chức học thuật rất tốt, các công ty công nghệ lớn, các công ty khởi nghiệp và vốn đầu tư mạo hiểm. Tính nhất quán này cho phép dịch hiệu quả và hiệu quả các kết quả và ứng dụng mới. Các quốc gia khác cũng đã áp dụng mô hình này. Ý tưởng về một hệ sinh thái đổi mới là một ý tưởng phổ biến và các quốc gia nhỏ hơn như Israel và Thụy Sĩ đã gặt hái được nhiều thành công. Tóm lại, tôi nghĩ rằng để đạt được sự đổi mới, bạn nên liên kết các trường đại học lớn với các ngành công nghiệp lớn. Nó không chỉ phụ thuộc vào nguồn lực vật chất, mà còn phụ thuộc vào các yếu tố văn hóa, giáo dục và các tổ chức nên công nhận sự sáng tạo và tinh thần kinh doanh của cá nhân.

Oracle mạng lưới thần kinh: Một khoa học mới không thể hiểu được​

Ông vừa đề cập rằng mạng lưới thần kinh là quá trình mô phỏng bộ não sinh học và thế giới vật chất. Làm sao mô phỏng này có thể thực hiện được khi hiểu biết của chúng ta về bộ não sinh học vẫn còn rất hạn chế? Mạng lưới thần kinh này cách bộ não sinh học của chúng ta bao xa?
Joseph Schifakis
: Đó là một câu hỏi hay. Tôi vừa nói rằng mạng thần kinh là một loại máy tính tự nhiên, áp dụng một mô hình khác với máy tính truyền thống. Cụ thể, mạng lưới thần kinh được lấy cảm hứng từ hoạt động thần kinh trong bộ não của chúng ta. Nó bắt chước một số quá trình tự nhiên mà các dây thần kinh hoạt động. Tuy nhiên, mạng lưới thần kinh chỉ bắt chước các nguyên tắc tính toán của bộ não, phức tạp hơn vì nó có cấu trúc và chức năng khác nhau ở các vùng khác nhau. Và những chức năng khác nhau này được xây dựng trên một kiến trúc phức tạp hơn mà chúng tôi vẫn đang cố gắng hiểu. Và mạng lưới thần kinh của bộ não là một chế độ tính toán song song. Mạng lưới thần kinh cũng khá khác với nó về mặt này.
Cũng nên hiểu rằng tôi không nghĩ rằng chúng ta có thể nắm bắt đầy đủ mọi ý định của con người nếu chỉ nghiên cứu bộ não ở cấp độ sinh học. Ví dụ: chạy một phần mềm trên máy tính xách tay của bạn. Sau đó, tôi sẽ cung cấp cho bạn các thiết bị điện tử để nghiên cứu cách thức hoạt động của phần cứng này thông qua các phép đo. Nếu bạn đã biên soạn chương trình, tất cả kiến
thức đều hiện diện dưới dạng tín hiệu điện ở cấp độ phần cứng. Nhưng chỉ bằng cách phân tích tín hiệu điện này, không thể tìm thấy mã nguồn của phần mềm có vấn đề, bởi vì bạn có vấn đề về quy mô này. Tôi nghĩ đây là chìa khóa để hiểu trí thông minh của con người, chúng ta phải nghiên cứu bộ não, nhưng không chỉ bộ não. Vì vậy, hiện tượng tính toán của não là tổng hợp của các tín hiệu điện, các hiện tượng lý hóa, và các hiện tượng tâm lý.
Vấn đề ngày nay là làm thế nào để kết nối các hiện tượng tinh thần với tính toán của bộ não. Đây là một thách thức lớn theo ý kiến của tôi. Nếu chúng ta không thành công trong việc này, tôi không nghĩ rằng chúng ta sẽ có thể hiểu được trí thông minh của con người.

Ông đã đề cập rằng trí tuệ nhân tạo đang mở ra một con đường mới cho sự phát triển tri thức của con người, vượt qua những hạn chế của bộ não con người trong việc xử lý các vấn đề phức tạp. Ông nghĩ AI có thể hoàn toàn vượt qua con người ở những điểm nào?
Joseph Schifakis:
Vâng. Trong cuốn sách của mình, tôi giải thích cách máy móc có thể giúp chúng ta vượt qua một số giới hạn của trí óc. Điều này đã được các nhà tâm lý học khẳng định. Những hạn chế ở đây bao gồm tâm trí con người bị giới hạn bởi sự phức tạp về nhận thức. Con người chúng ta không thể hiểu được mối quan hệ giữa hơn năm tham số độc lập. Đây là lý do tại sao các lý thuyết chúng tôi phát triển rất đơn giản. Chúng tôi không có một lý thuyết với 1000 tham số độc lập được hình thành.
Tôi nghĩ bây giờ có thể phát triển một lý thuyết với hàng nghìn tham số. Tôi nghĩ ngày nay chúng ta có thể xây dựng cái mà tôi gọi là "nhà tiên tri mạng thần kinh" với sự trợ giúp của siêu máy tính và trí tuệ nhân tạo. Một nhà tiên tri mạng thần kinh là một mạng thần kinh được đào tạo để hiểu và phân tích các hiện tượng phức tạp hoặc các hệ thống phức tạp. Những hiện tượng phức tạp này có thể phụ thuộc vào hàng nghìn tham số.
Lấy các hiện tượng vật lý làm ví dụ, hiện có một số dự án thú vị, chẳng hạn như đào tạo mạng lưới thần kinh để dự đoán động đất. Những người tham gia các dự án này không cần phải có nhiều kiến thức khoa học, chỉ cần cung cấp cơ sở dữ liệu cho mô hình. Họ có dữ liệu động đất từ khắp nơi trên thế giới trong tay. Họ đã xuất bản một bài báo giải thích rằng với một quy trình đào tạo rất đơn giản, họ có thể đưa ra những dự đoán tốt hơn so với việc sử dụng các lý thuyết phức tạp hiện có.
Vì vậy, tôi nghĩ rằng đây là một hướng đi rất quan trọng trong tương lai. Chúng ta sẽ có thêm nhiều "nhà tiên tri" giúp chúng ta dự đoán sự phát triển của các hiện tượng phức tạp hoặc các hệ thống phức tạp
. Ví dụ: chúng tôi sẽ có các hệ thống song sinh kỹ thuật số thông minh giúp chúng tôi đưa ra dự đoán, nhưng sẽ không hiểu (logic của các dự đoán). Vì vậy, chúng ta sẽ có một loại khoa học mới. Tôi nghĩ thật thú vị khi có thể sử dụng loại khoa học này, nhưng chúng ta cũng cần kiểm soát chất lượng của kiến thức được tạo ra. Bạn nên suy nghĩ về điều này, bởi vì con người sẽ không còn có đặc quyền duy nhất là tạo ra kiến thức nữa. Bây giờ con người phải cạnh tranh với máy móc.
Vì vậy, câu hỏi quan trọng đối với xã hội của chúng ta là liệu chúng ta có thể hợp tác với máy móc và làm chủ sự phát triển và tiến hóa của tri thức do máy móc phát triển hay không. Hoặc chúng ta sẽ phát triển một tình huống mà khoa học do con người điều khiển cùng tồn tại với khoa học do máy móc điều khiển. Sẽ là một kịch bản thú vị nếu chúng ta có khoa học song song được hỗ trợ bởi những cỗ máy này.
Ông đã đề cập rằng tâm trí con người cũng là một hệ thống máy tính. Cả hai hệ thống đều rất giống nhau về thành phần so với máy tự động. Vậy những khả năng độc đáo của con người so với trí tuệ nhân tạo mạnh mẽ là gì?
Joseph Schifakis
: Đó là một câu hỏi rất hay. Bởi vì tôi đang làm việc trên các hệ thống tự lái, nên tôi đã thử thiết kế ô tô tự lái. Đối với ô tô tự lái, bạn sẽ có các chức năng như nhận thức, biến thông tin cảm giác thành khái niệm. Bạn sẽ có một chức năng phản chiếu mô hình hóa thế giới bên ngoài và đưa ra quyết định. Ra quyết định có nghĩa là quản lý nhiều mục tiêu khác nhau. Để đạt được những mục tiêu này, bạn cần lập kế hoạch và hơn thế nữa. Thực sự có nhiều điểm tương đồng giữa các hệ thống tự trị và tâm trí con người.
Tuy nhiên, có một số khác biệt quan trọng giữa con người và các hệ thống tự trị. Một sự khác biệt rất quan trọng là con người sở hữu cái mà tôi gọi là kiến thức thông thường. Kiến thức thông thường là mạng lưới kiến thức mà chúng ta phát triển từ khi sinh ra. Chúng ta có một cơ chế, chúng ta không biết nó hoạt động như thế nào. Nhưng thông qua kinh nghiệm mỗi ngày, bạn làm phong phú thêm mạng lưới này và có được kiến thức thông thường để hiểu thế giới. Đối với con người, khi anh ta suy nghĩ, anh ta kết nối thông tin giác quan với mô hình khái niệm thông thường này. Các kết quả phân tích sau đó được đưa trở lại từ mô hình khái niệm thành thông tin cảm quan. Điều này rất khác với mạng lưới thần kinh. Để tôi cho bạn một ví dụ: Tôi chỉ cho bạn một biển báo dừng bị tuyết bao phủ một phần và bạn ngay lập tức nói rằng đó là biển báo dừng mà không nghi ngờ gì.
Bây giờ, nếu bạn muốn huấn luyện mạng nơ-ron nhận biết biển báo dừng bị tuyết bao phủ một phần, điều này có nghĩa là vì mạng nơ-ron không thể kết nối thông tin cảm giác với mô hình khái niệm, nên bạn sẽ phải huấn luyện mạng nơ-ron hiểu mọi thời tiết. Đây là lý do tại sao trẻ em dễ học hơn mạng lưới thần kinh. Nếu bạn cho trẻ xem ô tô một lần, lần sau trẻ sẽ nói đó là ô tô. Bởi vì chúng tạo thành một mô hình trừu tượng về chiếc ô tô thông qua quan sát. Họ có thể liên hệ thông tin cảm giác với mô hình khái niệm này. Đây là một trong những thách thức lớn nhất đối với trí tuệ nhân tạo ngày nay. Đây cũng là một vấn đề quan trọng mà ô tô tự lái phải đối mặt. Ô tô tự lái sẽ có thể thu thập thông tin cảm giác và liên kết thông tin đó với bản đồ, v.v. Đưa ra quyết định chỉ dựa trên thông tin cảm giác có thể nguy hiểm. Chúng tôi đã có những ví dụ về điều này trước đây.
Không rõ tại sao con người có thể hiểu được các tình huống phức tạp mà không cần phân tích và tính toán nhiều. Chúng ta có thể làm được điều này vì chúng ta có thể kết nối thông tin cảm giác với thông tin khái niệm nhất định, thông tin trừu tượng. Vì vậy, nơi chúng ta không thể mắc sai lầm nào cả, mạng lưới thần kinh có thể mắc sai lầm rất nhiều. Tôi nhớ có lần chiếc Tesla của tôi đột ngột dừng lại vì nó nghĩ rằng sự kết hợp giữa mặt trăng và cây cối là đèn giao thông màu vàng. Điều này hoàn toàn không xảy ra với con người, bởi vì con người có thể bối cảnh hóa thông tin để hiểu nó. Tôi hiểu ngay rằng đó là mặt trăng, vì đèn giao thông không thể lơ lửng trên bầu trời.
Vì vậy, khi ai đó nói rằng những hệ thống này có thể cạnh tranh với con người theo một số cách, thì có lẽ nó có thể. Nhưng dấu hiệu của trí thông minh con người là bạn có thể hiểu thế giới và đặt câu hỏi có mục đích. Trí tuệ nhân tạo vẫn còn cách xa mục tiêu này.
Bởi vì ông đã nghiên cứu về lái xe tự động, vốn đã bao gồm sự hiểu biết về môi trường, nhận thức và nhận thức. Lecun lập luận rằng bởi vì chúng ta là động vật trực quan, sự hiểu biết của chúng ta về thế giới chủ yếu dựa trên tầm nhìn. Nếu các mô hình ngôn ngữ lớn có thể đa phương thức và học hỏi từ môi trường, liệu chúng có thể hiểu được thế giới không?
Joseph Schifakis:
Tôi nghĩ rằng nếu AI không thể kết nối kiến thức cụ thể với kiến thức biểu tượng, thì sẽ không thể hiểu thế giới chỉ bằng cách dựa vào các mô hình ngôn ngữ lớn. AI chỉ có thể làm điều này bằng cách kết hợp kiến thức cụ thể, tức là kiến thức trong cơ sở dữ liệu, với kiến thức tượng trưng. Nếu không, thì trí thông minh của con người sẽ vượt trội hơn máy móc. Tôi khá chắc chắn về điều đó. Tôi biết nhiều người sẽ không đồng ý với tôi vì Trí tuệ tính toán có thể phân tích và trích xuất dữ liệu thông qua hàng triệu tham số. Con người không làm tốt điều này. Nhưng con người rất giỏi giải quyết các vấn đề trừu tượng.
Trí thông minh của con người phụ thuộc vào khả năng sử dụng phép loại suy và phép ẩn dụ. Ngay cả khi chúng ta không hiểu sự sáng tạo của con người hoạt động như thế nào, tôi vẫn có thể nói rằng nó rất quan trọng. Vì trong sự sáng tạo của con người, nên phân biệt giữa khám phá và phát minh. Máy có thể khám phá điều gì đó từ dữ liệu phức tạp hơn và lớn hơn bằng cách sử dụng phân tích dữ liệu. Nhưng phát minh lại là chuyện khác. Phát minh có nghĩa là tôi đã phát minh ra một lý thuyết. Tôi nghĩ chúng ta còn lâu mới hiểu được phần này của trí thông minh con người.
Nhưng khả năng khám phá cũng hữu ích, bởi vì nó có thể giúp con người đoán các mẫu chung hơn. Đây là điều mà tâm trí của chúng ta không thể khám phá ra. Nhưng tôi không nghĩ rằng máy móc sẽ có thể tạo ra các lý thuyết khoa học mới hoặc tạo ra các máy móc mới. Họ sẽ cung cấp một tổng hợp kiến thức mà họ sở hữu. Giống như một quá trình chắt lọc, họ có một lượng kiến thức khổng lồ, sau đó họ chắt lọc và trình bày cho bạn. Ngạc nhiên. Nhưng điều đó là không đủ. Để đạt được nhiều khả năng hơn vẫn cần khả năng của con người.
Trong một bài báo tôi đã viết, tôi đã giải thích rằng thực tế có nhiều loại trí thông minh khác nhau. Trí thông minh của con người rất đặc biệt bởi vì cơ sở cho sự phát triển trí thông minh của con người là thế giới đặc biệt mà chúng ta cố gắng sống trong đó. Nếu chúng ta được sinh ra ở một thế giới khác, có thể chúng ta sẽ phát triển một trí thông minh khác. Trí thông minh là khả năng tạo ra kiến thức và giải quyết vấn đề. Tất nhiên, bây giờ chúng ta thấy những cỗ máy có thể giải quyết những vấn đề mà chúng ta không thể, chúng thực sự sở hữu một loại trí thông minh khác. Thật tuyệt khi chúng ta có một số kiểu bổ sung cho nhau.
Sự phát triển của khoa học và công nghệ phải ưu tiên nâng cao đời sống con người
Chúng ta vừa có một số thảo luận triết học, và bây giờ chúng ta sẽ thảo luận một số vấn đề về tác động đạo đức của AI đối với xã hội. Câu hỏi đầu tiên là, không giống như sự lạc quan rằng các công nghệ mới sẽ tạo ra đủ việc làm mới, bạn đề cập rằng trí tuệ nhân tạo sẽ gây ra vấn đề thất nghiệp nghiêm trọng. Và liệu những vấn đề này có thể khó giải quyết nếu không thay đổi hệ thống kinh tế xã hội. Ông có thể giải thích tại sao bạn nói như vậy? Bởi vì rất nhiều người lo lắng về điều đó.
Joseph Schifakis:
Sự phát triển của AI sẽ làm tăng năng suất. Có một số quy luật rất đơn giản trong kinh tế học: nếu năng suất tăng lên, thì bạn ngày càng cần ít người hơn để làm cùng một công việc. Điểm này rất rõ ràng.
Bây giờ một số người nghĩ rằng AI sẽ tạo ra một số cơ hội việc làm, đặc biệt là cho những người chất lượng cao, nó sẽ tạo ra một số cơ hội việc làm mới. Nhưng nếu bạn cân nhắc các công việc do AI tạo ra với các công việc bị mất đi vì nó, thì tác động của AI phải là tiêu cực.
Bây giờ mọi người đều đồng ý rằng AI sẽ gây ra thất nghiệp. Điều này là hiển nhiên. Nhưng trong suốt lịch sử loài người, công nghệ đã có thể tăng năng suất, điều này cuối cùng đã cải thiện chất lượng cuộc sống của con người. Trong nhiều thế kỷ, con người làm việc ít giờ hơn. Chúng ta nên xem xét giải quyết vấn đề này thông qua các cải cách kinh tế và xã hội phù hợp. Kể cả cải cách giáo dục, bởi vì bạn phải giáo dục mọi người để thích ứng với thời đại mới này.
Trong cuộc cách mạng công nghiệp, cuộc sống của con người ban đầu không được cải thiện nhiều. Họ làm việc trong các nhà máy và có thể làm việc 14 giờ một ngày. Bạn có nghĩ rằng điều kiện sống của mọi người sẽ tồi tệ hơn trong những ngày đầu đổi mới công nghệ?
Joseph Schifakis
: Không, tôi nghĩ Cách mạng Công nghiệp nhìn chung đã cải thiện chất lượng cuộc sống con người. Đây là trọng tâm của vấn đề. Tôi nghĩ vấn đề của xã hội ngày nay là nó không coi trọng mục tiêu này, họ nghĩ rằng tiến bộ công nghệ nên được ưu tiên. Nhưng tôi nghĩ ưu tiên cao nhất là làm thế nào để cải thiện đời sống con người, điều này nên được ưu tiên hàng đầu. Ít nhất tôi là một người nhân đạo.
Tôi hiểu vấn đề này nghiêm trọng như thế nào. Ông có nghĩ AI có thể gây ra những hậu quả nghiêm trọng ngoài thất nghiệp không?
Joseph Schifakis
: Có thể. Nhưng vấn đề là một số người cho rằng trí tuệ nhân tạo sẽ là mối đe dọa cho loài người, thậm chí chúng ta có thể trở thành nô lệ cho máy móc. Tôi không thích tuyên bố đó. Tôi nói trong cuốn sách của mình rằng công nghệ là trung tính. Bạn có năng lượng nguyên tử, bạn có thể sử dụng năng lượng nguyên tử để tạo ra điện, và bạn có thể sử dụng nó để chế tạo bom và giết người. Đây là quyết định của bạn. Nếu bạn thực sự nghĩ về nó, tất cả những người nói rằng trí tuệ nhân tạo là mối đe dọa đối với con người đều hoàn toàn ngu ngốc. Bởi vì việc sử dụng công nghệ là trách nhiệm của con người.
Tôi nghĩ những người này nói vậy chỉ vì họ cũng muốn giảm bớt trách nhiệm của con người trong việc này.
Bởi vì họ muốn mọi người chấp nhận AI, điều đó thật tệ. Mọi người nên chịu trách nhiệm về các vấn đề có thể xảy ra. Tôi không biết chuyện gì đang xảy ra ở Trung Quốc, nhưng tiếc là ở thế giới phương Tây, mọi người không quá nhạy cảm về điều đó. Họ nghĩ rằng công nghệ (tác động tiêu cực) đã được định sẵn, điều này rất tệ. Tôi cũng nói trong cuốn sách của mình rằng rủi ro không phải là con người bị máy móc cai trị, mà là con người chấp nhận rằng máy móc đưa ra tất cả các quyết định quan trọng. Nếu tôi có một nô lệ có thể làm bất cứ điều gì tôi muốn, giống như trong những câu chuyện thần thoại Ả Rập, thì cuối cùng tôi sẽ là nô lệ của nô lệ của mình. Vì vậy, nguy hiểm đến từ người dân. Tôi cũng đã thấy điều này ở các trường học ở Pháp, nếu một đứa trẻ có quyền truy cập vào chatbot, nó sẽ không thể viết, sắp xếp suy nghĩ của mình và cuối cùng phụ thuộc vào máy. Đây không phải là một kịch bản màu hồng cho nhân loại.
Vài ngày trước, nhiều nhân vật nổi tiếng trong lĩnh vực AI, bao gồm cả Sam Altman, đã ký một tuyên bố về nguy cơ tuyệt chủng AI. khả năng và mối đe dọa của AI. Đây có phải là một vấn đề lớn không? Ông có nghĩ rằng mô hình AI hiện tại có khả năng gây ra một cuộc khủng hoảng cho nền văn minh nhân loại không?
Joseph Schifakis:
Những mối nguy hiểm do AI gây ra là rất rõ ràng và những mối nguy hiểm chính có thể đến từ việc lạm dụng nó. Thật không may, ngày nay chúng tôi không có quy định liên quan chống lại mối nguy hiểm này. Bởi vì chính phủ không biết làm thế nào những thứ này được phát triển, sự thiếu minh bạch có nghĩa là các quy định không thể được áp dụng. Thật quá tệ cho xã hội. AI rất có khả năng bị lạm dụng, vì vậy tôi cũng đã ký một bản kiến nghị ủng hộ việc điều tra công ty.
Công nghệ rất tốt và tôi không có gì chống lại công nghệ. Thật tuyệt khi chúng ta có chatbot và chúng ta nên tiến bộ theo hướng đó. Trí tuệ nhân tạo, bao gồm cả trí tuệ nhân tạo nói chung, là một điều tốt và tôi không có gì phản đối. Điều tôi chống lại là việc lạm dụng các công nghệ này. Nhiều quốc gia và tổ chức quốc tế nên thực thi các quy định, mặc dù có những khó khăn nhất định vì bản thân mô hình ngôn ngữ lớn thiếu khả năng diễn giải. Nhưng chúng ta vẫn có thể yêu cầu một số hình thức minh bạch từ các công ty phát triển, chẳng hạn như cách các bộ dữ liệu được xây dựng và cách các công cụ đó được đào tạo.
Gần đây, Quốc hội Hoa Kỳ đã tổ chức một phiên điều trần về trí tuệ nhân tạo và con người tiêu chuẩn. Bao gồm Sam Altman, Marcus đã tham gia và các dự luật liên quan đang được thông qua ở Châu Âu. Ông có nghĩ rằng đây là một khởi đầu tốt?
Joseph Schifakis:
Nhưng vấn đề là khi mọi người nói về trí tuệ nhân tạo an toàn, họ thường không có cùng ý nghĩa. Là một kỹ sư, bảo mật được xác định rất rõ đối với tôi. Những người khác có thể nghĩ rằng AI an toàn có nghĩa là tin tưởng AI nhiều như con người. Logic cơ bản của ý tưởng này là coi trí tuệ nhân tạo là con người chứ không phải máy móc. Có rất nhiều bài báo khác nói rằng AI làm gì không quan trọng, điều quan trọng là mục đích của AI, vì vậy bạn phải có khả năng tách mục đích khỏi kết quả, v.v. Vì vậy, có rất nhiều cuộc thảo luận. Tôi hy vọng tất cả các cuộc thảo luận này dẫn đến một số quy định nghiêm túc, không chỉ danh sách mong muốn.
Vì vậy, hãy nói về những khả năng tươi sáng hơn. Nếu trí tuệ nhân tạo không bị lạm dụng, nó có thể thay đổi cuộc sống của chúng ta theo những cách nào?
Joseph Schifakis:
Nếu chúng ta không lạm dụng trí tuệ nhân tạo, tương lai sẽ rất hứa hẹn. Đây là một cuộc cách mạng lớn. Nó có tiềm năng to lớn để phát triển tri thức nhằm giải quyết một số thách thức lớn đối với nhân loại ngày nay, chẳng hạn như biến đổi khí hậu, quản lý tài nguyên, vấn đề dân số, đại dịch, v.v.
Tôi đã nói trước rằng có một sự bổ sung rõ ràng giữa con người và máy móc. Đối với con người, kịch bản tốt nhất là sự hợp tác hài hòa giữa máy móc và con người. Và trong quá trình này, con người sẽ làm chủ được mọi quá trình phát triển và ứng dụng tri thức, đảm bảo rằng những cỗ máy này sẽ không tự mình đưa ra những quyết định quan trọng cho chúng ta.
Thách thức phía trước đối với chúng ta là tìm ra sự cân bằng phù hợp, tìm ra sự cân bằng đúng đắn về vai trò giữa con người và máy móc. Tôi hy vọng chúng ta có thể làm điều này thành công.
Nguồn: QQ
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top