Đối thoại với các cựu khoa học gia OpenAI: tình yêu, cái chết và trí tuệ nhân tạo

Đoàn Thúy Hà

Editor
Thành viên BQT
Công nghệ ở đó vì nhân loại, vì lợi ích của chúng ta, vì sự thịnh vượng của chúng ta, nhưng chúng ta có thể dễ dàng quên điều đó.
Đối thoại với các cựu khoa học gia OpenAI: tình yêu, cái chết và trí tuệ nhân tạo
Kenneth Stanley (trái) và Joel Lehman
Kenneth Stanley không phải là một người hành nghề tư vấn, nhưng hộp thư đến của anh ấy đã tràn ngập các email tư vấn trong những tháng gần đây. Họ đã hỏi anh ấy trong email: "Tất cả những điều này có nghĩa là gì?"
"Tất cả những điều này" đề cập đến sự xuất hiện của ChatGPT và sự bùng nổ AI mà nó đã kích hoạt. Kể từ khi được phát hành vào tháng 11 năm ngoái, mọi người trên khắp thế giới đã sử dụng nó, nói về nó, cố gắng hiểu các mối đe dọa và cơ hội mà nó mang lại.
OpenAI, công ty phát triển ChatGPT, cũng trở thành chủ đề nóng. Kenneth đã làm việc ở đó. Các nhà đầu tư đã bỏ lỡ ChatGPT và lo lắng về việc bỏ lỡ các cơ hội mới đã liên hệ với anh ấy để tìm hiểu xem anh ấy đang làm gì, bởi vì "bất kỳ ai có mối quan hệ với trí tuệ nhân tạo và OpenAI đều có thể đang làm những việc quan trọng".
Một cựu nhân viên khác của OpenAI, Joel Lehman, đã nhận được yêu cầu từ các công ty săn đầu người trên khắp thế giới, bao gồm cả ở Trung Quốc. Anh ấy và Kenneth đã tham gia OpenAI vào năm 2020 và rời đi vài tháng trước khi ChatGPT được phát hành. Tại OpenAI, họ đồng lãnh đạo nhóm Open-Endedness, nhóm này cam kết cho phép các thuật toán tự học và đổi mới mà không có mục tiêu định trước.
Trước đây, họ làm việc tại các trường đại học, công ty khởi nghiệp AI Geometric Intelligence và Uber AI Labs. Sau khi rời OpenAI vào năm 2022, Kenneth đã thành lập một công ty có tên là Maven để xây dựng một mạng xã hội mở, không thường xuyên, trong khi Joel lãnh đạo nhóm nghiên cứu mở tại Carper, một công ty con của AI kỳ lân Stable AI.
Họ đã làm việc trong ngành trí tuệ nhân tạo nhiều năm, nhưng tốc độ phát triển của công nghệ và số lượng giấy tờ ngày nay khiến họ đôi khi khó theo kịp.
Hiện tại, ngành công nghiệp trí tuệ nhân tạo của Trung Quốc cũng phải đối mặt với những lo lắng tương tự. Các tổ chức công nghiệp và học thuật đang lo lắng về việc bỏ lỡ cơ hội và lần lượt tung ra các mô hình lớn. Vào ngày 28 tháng 5, Viện Thông tin Khoa học và Công nghệ Trung Quốc, trực thuộc Bộ Khoa học và Công nghệ, đã công bố "Báo cáo nghiên cứu về Bản đồ mô hình tỷ lệ lớn trí tuệ nhân tạo của Trung Quốc", cho biết có ít nhất 79 mô hình quy mô lớn với thông số trên 1 tỷ ở Trung Quốc. Con số này vẫn đang tăng lên, sự cạnh tranh ngày càng khốc liệt hơn và các cầu thủ đang phải vật lộn với thủy triều. Một số doanh nhân AI Trung Quốc nói với Caijing rằng vấn đề AI mà họ quan tâm nhất hiện nay là mô hình kinh doanh và tính thanh khoản.
Kenneth và Joel, những người đã từng trải qua giai đoạn vật lộn với tiền bạc, lại đưa ra những câu trả lời hoàn toàn khác nhau. Mối quan tâm lớn nhất của Kenneth là AI sẽ khiến con người xa rời nhân tính của họ—rằng máy móc đang trở nên thú vị đến mức con người dành nhiều thời gian tương tác với chúng hơn là với con người. Theo thời gian, các mối quan hệ xã hội sẽ bị phá vỡ và các chính phủ sẽ tan rã. Và lý do ban đầu khiến anh ấy quan tâm đến trí tuệ nhân tạo là vì anh ấy muốn hiểu bản chất con người bằng cách hiểu "trí thông minh".
Joel quan tâm đến cách máy học có thể đóng góp tích cực cho sự phát triển cởi mở của các cá nhân và xã hội. Anh nói rằng công nghệ máy học hiện tại đối xử với con người theo một cách rất hạn hẹp và coi việc thỏa mãn sở thích là cách duy nhất để thúc đẩy sự thịnh vượng của con người, điều này đã tạo ra kén thông tin và gia tăng rào cản giữa con người với nhau. Con người rất phong phú và phức tạp. "Chúng ta có thể nghiện một số thứ, và có thể làm những việc trái với sở thích của mình; chúng ta có ý chí, nhưng đôi khi sau khi đấu tranh, chúng ta sẽ làm những gì chúng ta thực sự muốn làm".
Họ sử dụng các công cụ AI để hỗ trợ công việc của mình, nhưng từ chối sự tham gia của AI vào một số việc. Kenneth có thể vui chơi với lũ trẻ mà không cần bất kỳ thiết bị điện tử nào; Joel hiếm khi sử dụng ChatGPT trong bài viết của mình vì anh ấy “không muốn tự động hóa những thứ mà anh ấy thực sự quan tâm”.
Đổi mới là một điều khác mà họ quan tâm. Năm 2015, hai người đồng tác giả xuất bản cuốn "Tại sao sự vĩ đại không thể hoạch định". Trong cuốn sách, họ ghi lại những phát hiện sau nhiều năm nghiên cứu về AI: đặt mục tiêu đôi khi có thể trở thành một trở ngại; thay vào đó, làm theo sự hướng dẫn của trí tò mò có thể giải quyết vấn đề và đạt được sự đổi mới.
Vào tháng 5 và tháng 6 năm nay, các phóng viên đã có một cuộc giao tiếp bằng văn bản và một cuộc giao tiếp bằng video với Kenneth và Joel. Ngoài các vấn đề AI được quan tâm nhất, họ cũng nói về kinh nghiệm làm việc của OpenAI, môi trường đầu tư mạo hiểm của ngành AI Hoa Kỳ và các vấn đề kỹ thuật như khiếm khuyết của Transformer và sự xuất hiện của AGI (Trí tuệ nhân tạo tổng quát).
Sau đây là cuộc trò chuyện giữa Kenneth, Joel với phóng viên

Sức mạnh của cộng đồng đầu tư Hoa Kỳ là sự đa dạng​

Phóng viên: Kinh nghiệm của anh khi làm việc tại OpenAI là gì?
Kenneth:
Rất vui vì chúng ta có thể trải nghiệm công nghệ hoàn toàn mới. Tôi đã làm việc trong cả phòng thí nghiệm học thuật và thương mại. Sự khác biệt rõ ràng giữa OpenAI và các tổ chức nghiên cứu khác là các tổ chức khác có các nhóm nghiên cứu khác nhau và các thành viên trong nhóm đặt ra chương trình nghị sự của riêng họ và xuất bản các bài báo trong lĩnh vực tương ứng của họ; OpenAI cũng có các nhóm, nhưng các nhóm khác nhau có cùng một mục tiêu: chúng tôi chia sẻ sứ mệnh và cùng nhau hướng tới sứ mệnh này.
Joel: OpenAI là một công ty thú vị, phát triển nhanh, thực dụng và nghiêm ngặt. Nhân viên có thể dùng thử trước các mô hình, tạo cảm giác như đang sống trong tương lai. Ngoài ra, OpenAI có đủ nguồn lực tính toán và các tổ chức nghiên cứu khác mà tôi từng làm việc không có điều kiện này. Chúng tôi có cùng tầm nhìn và tầm nhìn này khác với các tổ chức AI khác hoặc suy nghĩ của hầu hết mọi người vào thời điểm đó-OpenAI tin vào quy mô và tin rằng việc sử dụng nhiều dữ liệu và sức mạnh tính toán hơn có thể nâng cao khả năng của mô hình.
Phóng viên: Sau khi phát hành ChatGPT, công việc và cuộc sống của anh có những thay đổi gì?
Kenneth:
Hộp thư của tôi đột nhiên tràn ngập các câu hỏi, dường như cả thế giới đều quan tâm đến lĩnh vực này, thậm chí còn sợ hãi - họ lo lắng rằng mình sẽ bị bỏ lại phía sau, vì vậy họ đang tìm kiếm những nhân vật có thẩm quyền và hỏi tất cả những điều này có nghĩa là gì. Vẫn có nhiều nhà đầu tư liên hệ với tôi, muốn tìm đầu ra tiếp theo. Thành công của ChatGPT khiến họ nghĩ rằng bất kỳ ai liên quan đến trí tuệ nhân tạo và OpenAI đều có thể đang làm những việc quan trọng.
Có điều gì đó đáng sợ về GPT vì nó nắm bắt khá chính xác một số khía cạnh của nhận thức con người. Nó không chỉ là một tiến bộ khoa học, nó còn có ý nghĩa triết học bởi vì những nhận thức này là thứ tách biệt con người khỏi mọi thứ khác trong vũ trụ và chúng bắt đầu hoạt động trong máy móc.
Joel: Nhiều công ty săn đầu người liên hệ với tôi, bao gồm cả những người đến từ Trung Quốc. Thêm vào đó, OpenAI được đưa tin thường xuyên đến mức lần đầu tiên bố mẹ tôi biết nhiều về công ty mà tôi đang làm việc. Cảm giác này thật kỳ diệu.
Phóng viên: Tại sao anh rời OpenAI vào nửa cuối năm 2022, vài tháng trước khi phát hành ChatGPT?
Joel:
Tôi không ngờ ChatGPT lại có tác động lớn như vậy. OpenAI là một nơi tuyệt vời để thực hiện nghiên cứu, nhưng nghiên cứu của nó luôn được thúc đẩy theo một hướng cụ thể; và Kenneth và tôi, với tư cách là các nhà nghiên cứu, hy vọng được tham gia vào nghiên cứu khám phá cơ bản hơn, cởi mở hơn (không hạn chế hướng). Ngay sau đó, cả hai chúng tôi đều có những lời mời làm việc phù hợp khác nên chúng tôi rời đi.
Phóng viên: Một số người cho rằng các tổ chức đầu tư của Trung Quốc quá chú trọng đến mô hình kinh doanh và lợi nhuận của các công ty được đầu tư, không sẵn sàng chấp nhận rủi ro như các nhà đầu tư OpenAI nên đã kìm hãm sự đổi mới và Trung Quốc đã không tạo ra OpenAI và ChatGPT. Anh nghĩ sao?
Kenneth:
Thật sai lầm khi diễn giải quy trình cấp vốn của OpenAI là "các nhà đầu tư không nên quan tâm đến tiền". Đội ngũ sáng lập của OpenAI là những tài năng tầm cỡ thế giới, vì vậy các nhà đầu tư sẵn sàng đặt cược vào đây.
Phóng viên: Môi trường đầu tư mạo hiểm trong ngành AI của Mỹ như thế nào?
Kenneth:
Ở Hoa Kỳ, có đủ các nhà đầu tư tập trung vào ý tưởng và tầm nhìn và sẵn sàng chấp nhận rủi ro, trong khi những người khác chỉ quan tâm đến lợi nhuận. Suy nghĩ của một người cũng sẽ thay đổi, ví dụ như tôi đầu tư vào một công ty không rõ mục tiêu, thất bại và thua lỗ, thì lần sau tôi sẽ quan tâm hơn đến mô hình kinh doanh và lợi nhuận. Theo tôi, lợi thế của cộng đồng đầu tư Mỹ nằm ở sự đa dạng về quan điểm. Đây là một môi trường lành mạnh.
Tôi không có kiến thức chuyên sâu về bối cảnh đầu tư ở Trung Quốc, nhưng sự đa dạng là tốt ở bất cứ đâu. Ngành đầu tư mạo hiểm ở Thung lũng Silicon đã rất trưởng thành và trong một môi trường tương đối non nớt như VC của Trung Quốc - và tôi không có ý coi thường, bởi vì có rất ít nơi trưởng thành như Thung lũng Silicon - tôi có thể tưởng tượng rằng mọi người đều rất quan tâm đến lợi nhuận và thương mại hóa. Điều này cũng có thể tạo ra các công ty tốt, nhưng chúng sẽ không mang tính cách mạng như OpenAI.
Ngoài ra, không chỉ các nhà đầu tư quyết định hướng đầu tư mà còn có nhiều tổ chức và quỹ đứng sau họ. Các cơ quan nhà nước tài trợ cho nghiên cứu khoa học không nên sợ lỗ, vì nghiên cứu khoa học luôn tiềm ẩn rủi ro, nếu không lỗ có nghĩa là họ không thực sự làm nghiên cứu. Nhưng tôi thấy rằng các tổ chức này bảo thủ hơn. Thật là mỉa mai khi họ hỏi, "Mục tiêu nghiên cứu là gì?" và sau đó đánh giá tính khả thi của mục tiêu trước khi quyết định có trả tiền hay không. Ngược lại, những nhà đầu tư theo định hướng thị trường sẽ có quan điểm khác. Họ coi đầu tư là một danh mục đầu tư và không quan tâm đến thất bại của từng cá nhân, miễn là sự gia tăng tổng thể có thể bù đắp cho sự sụt giảm. Đôi khi họ sẵn sàng hơn để nói, "Tôi không biết điều đó có nghĩa là gì, nhưng nghe có vẻ hay và tôi sẽ bỏ phiếu".

Transformer bị lỗi, AGI vẫn còn xa

Phóng viên: Sau Transformer sẽ có kiến trúc mới? (Lưu ý: Transformer là một mô hình xử lý ngôn ngữ tự nhiên do Google đề xuất vào năm 2017 và nó cũng là kiến trúc cơ bản của mô hình lớn AI ngày nay.)
Kenneth:
Tôi không tin rằng Transformer là kiến trúc cuối cùng mà chúng ta đạt được.Từ góc độ nghiên cứu, quan điểm này có vẻ quá lạc quan. Nhưng tôi không thể loại trừ khả năng này. Có thể không thay đổi kiến trúc mà chỉ thay đổi phương pháp huấn luyện, độ dài của dấu nhắc (prompt) và các khía cạnh khác.
Văn bản trong các từ nhắc theo thứ tự và mạng nơ-ron nhìn thấy thứ tự này, nhưng các từ nhắc có thể nhập hiện tại quá ngắn, vì vậy Transformer không thể học theo thứ tự thời gian. Có thể sẽ có một số đột phá trong tương lai, để các từ gợi ý có thể đủ dài để bao quát toàn bộ lịch sử nhân loại, và sau đó mô hình có thể học hỏi từ các từ gợi ý. Đây là một ý tưởng rất lạ nhưng nếu thực hiện được thì có lẽ kiến trúc sẽ được giữ nguyên.
Một yếu tố khác là phần cứng, các nhà khoa học sẽ nghĩ ra những kiến trúc mới rất thú vị, nhưng phần cứng hiện tại có thể không mang được, điều này làm hạn chế không gian để chúng tôi thử một số giải pháp.
Joel: Transformer thực sự tuyệt vời và có thể làm được rất nhiều thứ, nhưng xét về mặt lịch sử thì sẽ có những kẻ vượt mặt nó.
Một lỗ hổng cơ bản của Transformers hiện tại là thiếu khả năng "tái diễn". Khi đối mặt với một vấn đề, con người sẽ xem xét lại kinh nghiệm để học hỏi, và một trạng thái tinh thần nhất định trong quá khứ có thể được lặp lại vô tận, vì vậy bạn có thể suy ngẫm về điều gì đó bao lâu tùy thích. Transformer cũng có bộ nhớ rõ ràng về quá khứ, nhưng bộ nhớ này chỉ tồn tại trong một số lượng mã thông báo nhất định (lưu ý: đơn vị dữ liệu của AI xử lý văn bản). Mô hình này đủ mạnh để cho phép mô hình học hỏi từ thông tin ngữ cảnh đầu vào. Nhưng nó vẫn không thể lưu giữ ký ức mãi mãi như con người được.
Tôi muốn nhấn mạnh rằng tôi không nói rằng các mô hình học máy phải hoạt động giống như bộ não con người, nhưng con đường nghiên cứu chính thống hiện tại thì có.
Phóng viên: Có người cho rằng đại mẫu không có năng lực suy nghĩ giống con người, hình như chỉ là suy nghĩ mà thôi.
Joel:
Đó là một điểm thú vị, nhưng từ quan điểm kỹ thuật, tôi không đồng ý. Khả năng làm số học mà không cần sự trợ giúp của Transformer là rất không bình thường và nó mắc những lỗi cơ bản; nhưng khi bạn nói chuyện với nó về những chủ đề phức tạp mà nó dường như chưa được tiếp xúc (chẳng hạn như cố gắng kết hợp 22 ý tưởng triết học kỳ lạ), nó có thể đưa ra một phản ứng khá ấn tượng. Vì vậy, tôi nghĩ rằng thực tế có lẽ là ở đâu đó ở giữa.
Phóng viên: Làm thế nào để xác định AGI (Trí tuệ nhân tạo tổng quát)? Sam Altman (người sáng lập OpenAI) đã đề cập trong bài phát biểu rằng một hệ thống trí tuệ nhân tạo rất mạnh sẽ xuất hiện trong vòng mười năm nữa và chúng ta cần chuẩn bị cho điều đó ngay từ bây giờ.
Kenneth:
Tôi không quá quan tâm đến định nghĩa chính xác của AGI. Chúng ta sẽ biết khi chúng ta nhìn thấy nó. Tôi cảm thấy như từ AGI đang làm chúng tôi mất tập trung. Câu hỏi thực sự không phải là có đạt được AGI hay không, mà là liệu những gì chúng ta đạt được trong mười năm tới có tác động đáng kể đến xã hội hay không; nếu có, thì dù được gọi là AGI hay cách khác, chúng ta cần phải sẵn sàng.
Joel: Tôi đồng ý. Quá trình phát triển khoa học luôn phi tuyến tính, không biết khi nào AGI sẽ đến, có thể rất nhanh cũng có thể rất chậm. AI sẽ sớm vượt qua con người trong một số nhiệm vụ và một số khía cạnh của AGI có thể sớm xuất hiện.
Điều này tạo ra hai vấn đề. “Trí tuệ” là cơ sở định nghĩa con người, khi xuất hiện thứ gì đó thông minh hơn con người thì con người gặp nguy hiểm. Một điều đáng sợ nữa là nhiều người tìm thấy ý nghĩa từ công việc Khi AI tự động hóa công việc, chúng ta cần chuyển ý nghĩa cuộc sống từ công việc sang tìm kiếm niềm vui và làm những gì mình thích. Điều đó thật tuyệt, nhưng quá trình chuyển đổi có thể khó khăn. Bằng chứng hiện tại cho thấy ở Mỹ, ngay cả khi có an sinh xã hội, người dân vẫn chán nản vì thất nghiệp và thậm chí lạm dụng ma túy. Chúng tôi chưa sẵn sàng cho tương lai có thể này.
Phóng viên: Khi nào AGI sẽ được hiện thực hóa?
Kenneth:
Có nhiều quan điểm khác nhau về vấn đề này. Nhưng thực tế ra sao thì không ai biết. Vẫn còn một số lỗ hổng trong lĩnh vực tình báo chưa có giải pháp rõ ràng.
Cách tiếp cận chủ đạo hơn đối với AGI là tiếp tục tăng cường dữ liệu và sức mạnh tính toán dựa trên Transformer. Bởi vì trước đây phương pháp mở rộng quy mô này đã lấp đầy rất tốt các khoảng trống của các mô hình trước đó, chẳng hạn như việc nâng cấp từ GPT-2 lên GPT-3 lên GPT-4. Dựa trên điều này, một số người nghĩ rằng chúng ta đang ở điểm bùng phát của AGI - chỉ cần mở rộng quy mô hơn nữa và vấn đề sẽ được giải quyết.
Nhưng một số thứ không thể được cải thiện thông qua quy mô, chẳng hạn như đổi mới. Mô hình hiện tại không thể phát minh ra một mô hình mới như cách con người phát minh ra nhạc rock and roll. Đây là một thiếu sót nghiêm trọng, bởi vì bản chất của nền văn minh là sự đổi mới.
Lý do cho lỗ hổng này là Transformer học hỏi từ dữ liệu và những thứ như "đổi mới" không có trong dữ liệu. Hiện tại, dữ liệu được đưa vào mô hình không theo thứ tự thời gian từ đầu đến cuối, mà là toàn bộ một khối dữ liệu. Điều này dẫn đến việc mô hình thiếu khái niệm về thời gian, trong khi sự đổi mới liên quan mật thiết đến thứ tự thời gian.
Con người chúng ta luôn ở một thời điểm nhất định, và những gì xảy ra trước thời điểm này và những gì chưa xảy ra là mặc định, vì vậy chúng ta có thể biết đâu là mới và tiên tiến nhất; nhưng mô hình không thể đánh giá mốc thời gian, nó coi tất cả những điều này như một hỗn hợp lớn: nó sẽ thấy dữ liệu về ô tô, dữ liệu về tàu vũ trụ và dữ liệu về các mô hình ngôn ngữ lớn, nhưng tất cả chúng đều tồn tại cùng một lúc, không có thứ tự ưu tiên. Do đó, mô hình không thể đánh giá những gì là tiên tiến.
Một ví dụ khác là vấn đề ảo giác (lưu ý: "ảo giác" là thông tin sai hoặc sai do AI tạo ra), nghĩa là làm thế nào để mô hình ngôn ngữ biết những gì nó biết và những gì nó không biết? “Biết gì nhớ nấy” không phải là một quá trình ngôn ngữ. Nếu tôi hỏi bạn, bạn đã ăn gì ba tuần trước? Bạn sẽ nói rằng bạn không nhớ. Nhưng làm sao bạn biết bạn không nhớ? Quá trình không thể nói thành lời, bạn không thể nói, tôi đã kiểm tra cái này rồi cái kia, vì vậy tôi biết tôi không nhớ. Đó là một quá trình tiềm ẩn, bẩm sinh không liên quan đến ngôn ngữ; không có ngôn ngữ, nó không tồn tại trong dữ liệu và mô hình không thể lấy khái niệm từ dữ liệu.
Giờ đây, do việc sử dụng RLHF (Reinforcement Learning from Human Feedback, học tăng cường từ phản hồi của con người, nghĩa là con người huấn luyện mô hình, thưởng cho mô hình nếu nó hoạt động tốt và trừng phạt nếu nó không hoạt động tốt), những thiếu sót này có thể được sửa chữa. Nhưng tôi nghĩ điều này chỉ hiệu quả nếu mô hình thực sự hiểu những gì nó nên biết và không nên biết; và nó chỉ có thể thực sự hiểu nếu kiến thức đó tiềm ẩn trong dữ liệu. Nhưng hiện tại, có vẻ như kiến thức đó không tồn tại trong dữ liệu. Ví dụ, để dạy một mẫu người trung thực, chúng ta có thể trừng phạt nó khi nó không trung thực, và sau đó nó sẽ trở nên trung thực. Nhưng điều đó không có nghĩa là nó hiểu tầm quan trọng của sự trung thực.
Những vấn đề này rất khó giải quyết trên quy mô lớn và có nhiều giải pháp, nhưng chúng đòi hỏi sự phức tạp hơn, đòi hỏi những hiểu biết sâu sắc và đột phá công nghệ mới và sẽ không đến một cách dễ dàng. Vì vậy, AGI vẫn còn rất xa.

Tình yêu, Cái chết và Trí tuệ nhân tạo​

Phóng viên: Ngày nay, nhiều người trong ngành đang cảnh báo về mối đe dọa của AI, nhấn mạnh việc kiểm soát và giám sát AI. Và tính mở của AI mà bạn nghiên cứu là cho phép AI tạo ra nhiều kết quả mới và bất ngờ hơn mà không cần có mục tiêu, và đó là nới lỏng kiểm soát. Làm thế nào để đối phó với những mâu thuẫn?
Kenneth:
Câu hỏi hay. AI, với tư cách là một ngành khoa học, tự nó tìm kiếm những khám phá và đổi mới hơn nữa. Chúng ta nên chấp nhận sự cởi mở trong nghiên cứu và dựa vào đó để tìm ra sự cân bằng—cho phép tiếp tục khám phá trong khi vẫn đủ hạn chế.
Joel: Nghiên cứu về tính mở quan trọng một phần vì nó cho phép chúng ta giải quyết một cách khoa học các câu hỏi xuyên suốt lịch sử công nghệ: Làm thế nào để chúng ta tận dụng tối đa quá trình mở trong khi giảm thiểu rủi ro? Cùng một quy trình khoa học mở đã cho chúng ta vắc-xin để chữa bệnh và máy bay bay vòng quanh thế giới cũng mang lại cho chúng ta vũ khí hạt nhân. Sự căng thẳng giữa sáng tạo và kiểm soát diễn ra sâu sắc và đòi hỏi rất nhiều suy nghĩ và nghiên cứu.
Phóng viên: Các anh đã là người sống ở trạng thái AI chưa?
Kenneth:
Không. Tôi sử dụng AI tại nơi làm việc, nhưng nhiều thứ trong cuộc sống, chẳng hạn như chơi với con tôi, sẽ rất tuyệt nếu không có bất kỳ thiết bị điện tử nào. Tôi sử dụng AI một cách điều độ và cuộc sống là cuộc sống.
Joel: Tôi sử dụng ChatGPT (với GPT-4) để hiểu các miền kiến thức mới và Copilot để viết mã.
Nhưng cho đến nay, tôi vẫn chưa sử dụng ChatGPT trong bài viết của mình (ví dụ: tôi chưa sử dụng nó để trả lời những câu hỏi này của bạn). Một phần lý do là nó chưa được đưa vào quy trình làm việc của tôi. Ví dụ: tôi sẽ sử dụng một trình soạn thảo văn bản cụ thể và thật rắc rối khi tích hợp GPT vào đó. Ngoài ra, tôi yêu bản chất nghệ thuật của văn bản. Có thể trong tương lai nó sẽ trở nên đủ dễ dàng để phù hợp với quy trình công việc, nhưng tôi cũng hơi phản đối vì đôi khi, bạn không muốn tự động hóa những thứ mà bạn thực sự quan tâm.
Phóng viên: Vấn đề về AI mà bạn quan tâm nhất hiện nay là gì?
Kenneth:
Tôi lo lắng rằng chúng ta ngày càng trở nên xa lạ với nhân loại của mình. Tôi bắt đầu quan tâm đến AI khi tôi 8 tuổi. Điều khiến tôi thích thú nhất là nó cho phép tôi hiểu và kết nối với mọi người tốt hơn. Điều này có thể khó hiểu, xét cho cùng, chúng ta dường như chỉ làm việc với máy móc cả ngày và không quan tâm đến con người. Nhưng quá trình hiểu “trí thông minh” thực chất là hiểu bản chất của bản chất con người. Tâm lý học cũng là sự hiểu biết về trí thông minh, nhưng nó chỉ nói về cách nó hoạt động chứ không phải cách nó được xây dựng; và tôi luôn cảm thấy rằng nếu tôi không thể xây dựng một thứ gì đó, thì tôi không thể thực sự hiểu nó.
Trường hợp máy móc thay thế con người làm tôi bối rối. Đây là điều tôi muốn nói khi xa lánh loài người - máy móc trở nên phong phú và đủ thú vị để bạn có thời gian giao tiếp với máy móc thay vì con người. Những hình ảnh chúng ta thấy, âm nhạc chúng ta nghe và những câu chuyện chúng ta đọc đã từng là sản phẩm của trí tưởng tượng phong phú của con người, nhưng giờ đây ngày càng được tạo ra bởi máy móc.
Khoảnh khắc cụ thể khiến tôi bị sốc là lần đầu tiên tôi nhìn thấy DELL-E (Lưu ý: sản phẩm tạo hình ảnh của OpenAI). Đột nhiên, tôi nhận ra rằng nghệ thuật không thể tự thể hiện, nó chỉ là nghệ thuật. Và tôi luôn tin rằng vẻ đẹp của nghệ thuật nằm ở sự thể hiện của con người. Lúc đó, con tôi khoảng 7 tuổi. Anh ấy thích vẽ, và chất lượng của những bức tranh do chiếc máy này tạo ra vượt xa anh ấy. Nó khiến tôi bối rối rất nhiều về tương lai - thứ lạnh lùng không có kinh nghiệm thực tế này lại ngăn cản mọi người đánh giá cao sự thể hiện bản thân của con tôi. Tôi không thích thế giới như vậy.
Những công nghệ như DELL-E cũng có thể giúp con người thể hiện bản thân, nhưng nếu đi sai hướng, chúng ta sẽ đắm chìm trong thứ gì đó vô nhân đạo và ngừng tương tác với con người, lúc đó, các mối quan hệ xã hội sẽ bị phá vỡ và các chính phủ sẽ sụp đổ. Một thách thức lớn trước mắt chúng ta là làm thế nào để trí tuệ nhân tạo hỗ trợ sự kết nối có ý nghĩa của con người, thay vì khuyến khích sự cô lập và cô đơn.
Joel: Ngay bây giờ tôi quan tâm nhất về việc các mô hình ngôn ngữ có thể được triển khai ra thế giới nhanh như thế nào. Tôi lo lắng rằng các thể chế (như thể chế luật pháp, giáo dục, kinh tế, truyền thông và chính trị) chậm thích ứng và không theo kịp sự phát triển của các mô hình ngôn ngữ.
Tại Hoa Kỳ, các hệ thống như phương tiện truyền thông xã hội và công cụ giới thiệu chiếm rất nhiều thời gian và năng lượng của mọi người. Các hệ thống này có khả năng kết nối chúng ta, nhưng chúng thường chỉ liên quan đến mức độ tương tác của người dùng và thời gian lưu trú, thay vì giúp chúng ta cải thiện cuộc sống của mình.
Có vẻ như tất cả các tổ chức của chúng tôi đều bị biến thành cờ bạc theo cách này. Ví dụ, ở Hoa Kỳ, để giành chiến thắng trong cuộc bầu cử, một số ứng cử viên chính trị không còn tham gia vào các cuộc tranh luận trung thực nữa mà thay vào đó, tạo ra các quảng cáo nhắm vào đặc điểm tâm lý của khán giả và khơi dậy lòng căm thù của họ đối với các đảng phái chính trị khác. Học máy có liên quan theo nhiều cách khác nhau, chẳng hạn như đề xuất được cá nhân hóa và kén thông tin. Đây cũng là một trong những lý do chính khiến tôi chuyển hướng nghiên cứu của mình sang sự giao thoa giữa học máy và triết học. Tôi hy vọng chúng ta có thể sử dụng máy học theo cách có lợi hơn.
Phóng viên: Có cách nào để những tình huống này không trở nên tồi tệ hơn không?
Kenneth:
Một cách là khuyến khích sự phát triển của các công cụ AI giúp tăng cường khả năng của con người — biến các bài hát thành các tác phẩm hoàn chỉnh, tạo điều kiện cho sự tương tác giữa con người với chất lượng cao, những thứ tương tự. Nhưng bản tính con người khó kiểm soát. Nếu giao tiếp với AI là một niềm vui, mọi người sẽ làm như vậy. Nó giống như ăn đường vậy, vị ngọt dễ chịu nhưng bạn phải cố gắng đừng lạm dụng nó.
Chúng tôi cũng cần hợp tác quốc tế để thiết lập các khuôn khổ pháp lý và kiểm duyệt, đồng thời xác định những người chịu trách nhiệm. Đây cũng là một khó khăn, liên quan đến vấn đề kinh tế và cạnh tranh quốc tế - nếu AI có thể được phát triển độc lập, một quốc gia hoàn toàn có thể cải cách nền kinh tế toàn cầu và giành được lợi thế rất lớn. Do đó, nó rất hấp dẫn để không hợp tác.
Phóng viên: Nhiều doanh nhân AI ngoài Mỹ đang gặp khó khăn về mô hình kinh doanh và tài chính, họ muốn tập hợp các nguồn lực để tạo ra OpenAI của quốc gia họ. Các anh không quan tâm đến tiền sao?
Kenneth:
Nếu tôi đang trong giai đoạn khởi nghiệp mà tôi rất cần tiền, tôi cũng sẽ coi trọng việc tài trợ; nhưng dường như tôi đã vượt qua giai đoạn đó rồi - giờ tôi nghĩ rằng nếu tôi làm những điều đúng đắn, tôi có thể nhận được tài trợ. Vì vậy, tôi quan tâm nhiều hơn đến khách hàng tiềm năng và lo lắng về việc không có bằng chứng để chứng minh ý tưởng của mình hơn là tiền.
Cá nhân tôi không nghĩ "trở thành OpenAI tiếp theo" là một con đường hợp lý, bởi vì thông thường, bạn không thể trở lại như cũ. Điều làm cho điều này trở nên tuyệt vời là nó là người đầu tiên làm điều đó và nó là duy nhất. Giờ đây, không gian robot đàm thoại rất cạnh tranh và tôi không nghĩ mình đủ giỏi để giành chiến thắng, vì vậy tôi có xu hướng suy nghĩ nhiều hơn, có gì mới và hoàn toàn khác với OpenAI?
Joel: Tôi thích tiền. Tôi đủ may mắn để làm việc trong một phòng thí nghiệm được trả lương cao. Nhưng bây giờ, nhiều tiền hơn không làm cho cuộc sống của tôi cảm thấy ý nghĩa hơn.
Phóng viên: Công chúng Mỹ quan tâm đến những vấn đề gì về AI?
Kenneth:
Có đủ loại mối quan tâm, một số người tập trung vào những rủi ro dài hạn, chẳng hạn như mối đe dọa diệt vong của loài người, một số người tập trung vào những rủi ro ngắn hạn, chẳng hạn như vấn đề việc làm. Sau đó, có những người lo lắng về mọi thứ cùng một lúc. Một số người tức giận với những người khác vì những mối quan tâm không quan trọng của họ lại thu hút quá nhiều sự chú ý đến mức khiến mọi người sao nhãng khỏi những điều thực sự quan trọng. Hiện tại đang thiếu sự đồng thuận. Tôi nghĩ mọi người đang phân loại tâm trí của họ và quyết định đâu là những vấn đề quan trọng nhất xứng đáng với nhiều thời gian và năng lượng của chúng tôi.
Phóng viên: Nội dung chính của bài báo "Tình yêu của máy móc" là gì?
Joel:
"Trí tuệ nhân tạo" là đưa hiểu biết của chúng ta về "trí thông minh" vào máy móc, cố gắng hiểu bản chất của trí thông minh; "cuộc sống nhân tạo" là trừu tượng hóa "sự sống" và mô phỏng quá trình tiến hóa sinh học trong máy tính. Tôi cố gắng áp dụng ý tưởng tương tự cho "tình yêu", và trừu tượng hóa khái niệm "tình yêu", để máy móc có thể diễn đạt "tình yêu". Trong thực tế, điều này có nghĩa là kết hợp các phương pháp từ học máy với các phương pháp từ các lĩnh vực nghiên cứu về tình yêu như triết học, tâm linh, tâm lý trị liệu, v.v.
Một trong những vấn đề với học máy là nó đối xử với con người theo một cách rất hạn hẹp, coi việc thỏa mãn sở thích là cách duy nhất để thúc đẩy sự phát triển của loài người. Từ quan điểm này, có thể hiểu rằng mạng xã hội coi trọng thời gian tương tác của người dùng: trong mắt học máy, bạn là một cá nhân hoàn toàn lý trí, vì vậy bạn càng dành nhiều thời gian cho mạng xã hội, điều đó có nghĩa là nó mang lại điều gì đó có giá trị.
Tuy nhiên, con người rất phong phú và phức tạp. Chúng ta có thể nghiện một số thứ nhất định, chúng ta có thể làm những điều trái với sở thích của mình; chúng ta có ý chí kiên cường, và đôi khi phải đấu tranh để làm những gì chúng ta thực sự muốn làm.
Trong bài báo này, tôi áp dụng một mô hình hành vi con người phong phú hơn (tương tự như thuyết nhu cầu của Maslow), cố gắng sử dụng các mô hình ngôn ngữ để cho phép máy móc tôn trọng và thúc đẩy sự phát triển của con người, thay vì chỉ mang lại sự thỏa mãn hạn hẹp.
Phóng viên: Điều này nghe có vẻ liên quan mật thiết đến vấn đề AI mà các bạn quan tâm nhất hiện nay. Anh đang tìm giải pháp cho một vấn đề?
Joel:
Tôi không thể khẳng định mình có giải pháp, nhưng tôi hy vọng sẽ tìm ra hướng đi tích cực. Tôi rất quan tâm đến con người, tâm lý con người và cách kết hợp giữa lĩnh vực con người và máy móc một cách hiệu quả. Công nghệ ở đó vì nhân loại, vì lợi ích của chúng ta, vì sự thịnh vượng của chúng ta, nhưng đôi khi, thật dễ dàng để quên đi điều đó.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top