Yu Ki San
Writer
Trích đoạn từ cuốn sách "Đế chế AI" sắp ra mắt của Karen Hao hé lộ những lo sợ về Trí tuệ Nhân tạo Tổng quát (AGI) của nhà khoa học trưởng Ilya Sutskever, cuộc đấu đá quyền lực dẫn đến việc Sam Altman bị sa thải rồi phục chức, và sự thay đổi bản chất của OpenAI từ một tổ chức phi lợi nhuận sang một gã khổng lồ thương mại.
Nỗi ám ảnh về AGI và kế hoạch "hầm trú ẩn"
Mùa hè năm 2023, Ilya Sutskever, đồng sáng lập và là nhà khoa học trưởng của OpenAI, người đứng sau thành công của ChatGPT, dường như đang chìm trong một cuộc chiến nội tâm. Dù công ty đang ở đỉnh cao danh vọng, Sutskever lại bị ám ảnh bởi sự xuất hiện sắp xảy ra của Trí tuệ Nhân tạo Tổng quát (AGI) – một dạng AI có khả năng vượt qua trí tuệ con người.
Theo Geoff Hinton, người thầy và cố vấn của Sutskever, và một nguồn tin khác am hiểu suy nghĩ của ông, Sutskever tin rằng AGI không chỉ là không thể tránh khỏi mà còn rất cận kề. Ông trăn trở về một thế giới bị biến đổi bởi AGI và trách nhiệm của OpenAI trong việc đảm bảo một kết cục thịnh vượng thay vì đau khổ cho nhân loại. Từ một người cống hiến phần lớn thời gian cho việc thúc đẩy khả năng của AI, Sutskever bắt đầu dành một nửa thời gian cho an toàn AI. Ông vừa hào hứng vừa sợ hãi hơn bao giờ hết.
Trong một cuộc họp với các nhà nghiên cứu mới tại công ty vào mùa hè 2023, Sutskever đã vạch ra một kế hoạch gây sốc. "Một khi tất cả chúng ta vào trong hầm trú ẩn—" ông bắt đầu, theo lời một nhà nghiên cứu có mặt. Khi bị ngắt lời và hỏi về "căn hầm", Sutskever đáp: "Chúng ta chắc chắn sẽ xây một căn hầm trú ẩn trước khi phát hành AGI." Ông giải thích rằng một công nghệ mạnh mẽ như vậy chắc chắn sẽ trở thành đối tượng thèm muốn của các chính phủ toàn cầu, và các nhà khoa học cốt lõi cần được bảo vệ. "Dĩ nhiên," ông nói thêm, "việc vào hầm trú ẩn sẽ là tùy chọn."
Hai nguồn tin khác xác nhận Sutskever thường xuyên đề cập đến một căn hầm như vậy. Một nhà nghiên cứu nói: "Có một nhóm người – Ilya là một trong số đó – tin rằng việc xây dựng AGI sẽ mang đến một sự kiện tương tự như 'Ngày Tận thế' (rapture)." (Sutskever từ chối bình luận về câu chuyện này).
Từ lý tưởng phi lợi nhuận đến cuộc đua thương mại
Nỗi sợ của Sutskever về một AI toàn năng có vẻ cực đoan, nhưng không hoàn toàn xa lạ, cũng không quá lạc lõng so với quan điểm chung của OpenAI vào thời điểm đó. Tháng 5 năm 2023, CEO Sam Altman đã đồng ký một bức thư ngỏ mô tả công nghệ này là một nguy cơ tuyệt chủng tiềm tàng – một câu chuyện được cho là đã giúp OpenAI tự định vị mình và dẫn dắt các cuộc thảo luận về quy định. Tuy nhiên, những lo ngại về ngày tận thế cũng phải được cân bằng với hoạt động kinh doanh ngày càng phát triển của OpenAI: ChatGPT là một cú hit, và Altman muốn nhiều hơn nữa.
Khi OpenAI được thành lập, ý tưởng là phát triển AGI vì lợi ích của nhân loại. Các đồng sáng lập – bao gồm Altman và Elon Musk – đã thành lập tổ chức dưới dạng phi lợi nhuận và cam kết chia sẻ nghiên cứu. Tuy nhiên, đến năm 2019, những lý tưởng này bắt đầu phai mờ. Các giám đốc điều hành của OpenAI nhận ra rằng con đường họ muốn đi đòi hỏi một lượng tiền khổng lồ. Cả Musk và Altman đều cố gắng giành quyền CEO. Altman thắng thế. Musk rời tổ chức vào đầu năm 2018 và mang theo tiền của mình. Để lấp lỗ hổng, Altman đã cải tổ cấu trúc pháp lý của OpenAI, tạo ra một nhánh "lợi nhuận có giới hạn" (capped-profit) mới trong tổ chức phi lợi nhuận để huy động thêm vốn.
Mâu thuẫn nội bộ và "cuộc đảo chính" hụt
Hai nền văn hóa đối nghịch của OpenAI – tham vọng phát triển AGI một cách an toàn và mong muốn phát triển một cơ sở người dùng khổng lồ thông qua các sản phẩm mới – đã bùng nổ vào cuối năm 2023. Lo ngại sâu sắc về hướng đi mà Altman đang dẫn dắt công ty, Sutskever đã tiếp cận các thành viên hội đồng quản trị khác, cùng với đồng nghiệp Mira Murati, khi đó là Giám đốc Công nghệ (CTO) của OpenAI.1 Hội đồng quản trị sau đó đã đi đến kết luận về sự cần thiết phải loại bỏ CEO.
Những gì diễn ra tiếp theo – việc Altman bị sa thải rồi được phục chức – đã làm rúng động ngành công nghệ. Theo tường thuật của Karen Hao, dựa trên lời kể của hơn một chục người liên quan trực tiếp hoặc thân cận, cùng các ghi chú, ảnh chụp màn hình tin nhắn Slack, email và bản ghi âm:
Tưởng chừng mọi việc đã ổn định, Murati bất ngờ báo cáo với hội đồng quản trị rằng Altman và Brockman đang nói với mọi người rằng việc Altman bị loại bỏ là một cuộc đảo chính của Sutskever. Trong một cuộc họp toàn công ty, Sutskever đã không thể truyền đạt một cách hiệu quả lý do sa thải Altman.
Ngay sau đó, Brockman nghỉ việc để phản đối, theo sau là ba nhà nghiên cứu cấp cao khác. Nhân viên ngày càng tức giận do thiếu thông tin rõ ràng, lo sợ mất quyền lợi từ việc bán cổ phần và nguy cơ công ty sụp đổ.
Trước khả năng OpenAI tan rã, Sutskever bắt đầu lung lay và kêu gọi hội đồng quản trị xem xét lại. Murati, người dù có phản hồi tiêu cực về Altman nhưng không tham gia vào quá trình thảo luận sa thải, cũng không còn sẵn sàng công khai ủng hộ quyết định của hội đồng. Đến sáng thứ Hai, hội đồng quản trị đã thất thế. Murati và Sutskever đổi phe. Altman quay trở lại.
OpenAI ngày nay: Từ phi lợi nhuận đến đế chế thương mại
Karen Hao nhận định, vụ việc tháng 11 năm 2023 cho thấy rõ cuộc đấu tranh quyền lực giữa một nhóm nhỏ các tinh hoa ở Thung lũng Silicon đang định hình tương lai của AI. OpenAI ngày nay đã trở thành mọi thứ mà nó từng tuyên bố sẽ không trở thành: một tổ chức phi lợi nhuận chỉ trên danh nghĩa, tích cực thương mại hóa sản phẩm như ChatGPT, tìm kiếm các mức định giá lịch sử và ngày càng trở nên bí mật hơn.
Trong khi các công ty AI ngày càng giàu có (OpenAI được định giá 300 tỷ USD vào tháng 3, Anthropic hơn 60 tỷ USD), ngày càng có nhiều nghi ngờ về giá trị kinh tế thực sự của AI tạo sinh. Nhiều nghiên cứu cho thấy công nghệ này không mang lại lợi ích về năng suất cho hầu hết người lao động, đồng thời làm xói mòn tư duy phản biện của họ. Thay vào đó, nó dường như chỉ tập trung thêm của cải vào tay một số ít. Cùng lúc đó, chi phí nhân lực và vật chất đang đè nặng lên nhiều thành phần xã hội, đặc biệt là những người dễ bị tổn thương.
Để xoa dịu những lo ngại, Altman ngày càng lớn tiếng thổi phồng những lợi ích tương lai của AGI, biến nó thành một "cái cớ toàn năng, kỳ ảo" để OpenAI tiếp tục theo đuổi sự giàu có và quyền lực hơn nữa. Sau "The Blip" (tên nhân viên OpenAI gọi cuộc khủng hoảng), Sutskever và Murati đều đã rời OpenAI, nối dài danh sách các lãnh đạo từng xung đột với Altman. Họ đã thành lập công ty riêng để cạnh tranh trong cuộc đua công nghệ này.
Câu chuyện của OpenAI đặt ra câu hỏi cấp bách: Chúng ta quản trị trí tuệ nhân tạo như thế nào để đảm bảo một tương lai tốt đẹp hơn, chứ không phải tồi tệ hơn?

Nỗi ám ảnh về AGI và kế hoạch "hầm trú ẩn"
Mùa hè năm 2023, Ilya Sutskever, đồng sáng lập và là nhà khoa học trưởng của OpenAI, người đứng sau thành công của ChatGPT, dường như đang chìm trong một cuộc chiến nội tâm. Dù công ty đang ở đỉnh cao danh vọng, Sutskever lại bị ám ảnh bởi sự xuất hiện sắp xảy ra của Trí tuệ Nhân tạo Tổng quát (AGI) – một dạng AI có khả năng vượt qua trí tuệ con người.
Theo Geoff Hinton, người thầy và cố vấn của Sutskever, và một nguồn tin khác am hiểu suy nghĩ của ông, Sutskever tin rằng AGI không chỉ là không thể tránh khỏi mà còn rất cận kề. Ông trăn trở về một thế giới bị biến đổi bởi AGI và trách nhiệm của OpenAI trong việc đảm bảo một kết cục thịnh vượng thay vì đau khổ cho nhân loại. Từ một người cống hiến phần lớn thời gian cho việc thúc đẩy khả năng của AI, Sutskever bắt đầu dành một nửa thời gian cho an toàn AI. Ông vừa hào hứng vừa sợ hãi hơn bao giờ hết.

Trong một cuộc họp với các nhà nghiên cứu mới tại công ty vào mùa hè 2023, Sutskever đã vạch ra một kế hoạch gây sốc. "Một khi tất cả chúng ta vào trong hầm trú ẩn—" ông bắt đầu, theo lời một nhà nghiên cứu có mặt. Khi bị ngắt lời và hỏi về "căn hầm", Sutskever đáp: "Chúng ta chắc chắn sẽ xây một căn hầm trú ẩn trước khi phát hành AGI." Ông giải thích rằng một công nghệ mạnh mẽ như vậy chắc chắn sẽ trở thành đối tượng thèm muốn của các chính phủ toàn cầu, và các nhà khoa học cốt lõi cần được bảo vệ. "Dĩ nhiên," ông nói thêm, "việc vào hầm trú ẩn sẽ là tùy chọn."
Hai nguồn tin khác xác nhận Sutskever thường xuyên đề cập đến một căn hầm như vậy. Một nhà nghiên cứu nói: "Có một nhóm người – Ilya là một trong số đó – tin rằng việc xây dựng AGI sẽ mang đến một sự kiện tương tự như 'Ngày Tận thế' (rapture)." (Sutskever từ chối bình luận về câu chuyện này).
Từ lý tưởng phi lợi nhuận đến cuộc đua thương mại
Nỗi sợ của Sutskever về một AI toàn năng có vẻ cực đoan, nhưng không hoàn toàn xa lạ, cũng không quá lạc lõng so với quan điểm chung của OpenAI vào thời điểm đó. Tháng 5 năm 2023, CEO Sam Altman đã đồng ký một bức thư ngỏ mô tả công nghệ này là một nguy cơ tuyệt chủng tiềm tàng – một câu chuyện được cho là đã giúp OpenAI tự định vị mình và dẫn dắt các cuộc thảo luận về quy định. Tuy nhiên, những lo ngại về ngày tận thế cũng phải được cân bằng với hoạt động kinh doanh ngày càng phát triển của OpenAI: ChatGPT là một cú hit, và Altman muốn nhiều hơn nữa.

Khi OpenAI được thành lập, ý tưởng là phát triển AGI vì lợi ích của nhân loại. Các đồng sáng lập – bao gồm Altman và Elon Musk – đã thành lập tổ chức dưới dạng phi lợi nhuận và cam kết chia sẻ nghiên cứu. Tuy nhiên, đến năm 2019, những lý tưởng này bắt đầu phai mờ. Các giám đốc điều hành của OpenAI nhận ra rằng con đường họ muốn đi đòi hỏi một lượng tiền khổng lồ. Cả Musk và Altman đều cố gắng giành quyền CEO. Altman thắng thế. Musk rời tổ chức vào đầu năm 2018 và mang theo tiền của mình. Để lấp lỗ hổng, Altman đã cải tổ cấu trúc pháp lý của OpenAI, tạo ra một nhánh "lợi nhuận có giới hạn" (capped-profit) mới trong tổ chức phi lợi nhuận để huy động thêm vốn.
Mâu thuẫn nội bộ và "cuộc đảo chính" hụt
Hai nền văn hóa đối nghịch của OpenAI – tham vọng phát triển AGI một cách an toàn và mong muốn phát triển một cơ sở người dùng khổng lồ thông qua các sản phẩm mới – đã bùng nổ vào cuối năm 2023. Lo ngại sâu sắc về hướng đi mà Altman đang dẫn dắt công ty, Sutskever đã tiếp cận các thành viên hội đồng quản trị khác, cùng với đồng nghiệp Mira Murati, khi đó là Giám đốc Công nghệ (CTO) của OpenAI.1 Hội đồng quản trị sau đó đã đi đến kết luận về sự cần thiết phải loại bỏ CEO.
Những gì diễn ra tiếp theo – việc Altman bị sa thải rồi được phục chức – đã làm rúng động ngành công nghệ. Theo tường thuật của Karen Hao, dựa trên lời kể của hơn một chục người liên quan trực tiếp hoặc thân cận, cùng các ghi chú, ảnh chụp màn hình tin nhắn Slack, email và bản ghi âm:
- Hành vi của Altman gây mất lòng tin:Các giám đốc điều hành thân cận của Altman nhận thấy một mô hình hành vi đặc biệt: nếu hai đội bất đồng quan điểm, ông thường đồng ý riêng với quan điểm của mỗi bên, điều này gây ra sự nhầm lẫn và làm xói mòn lòng tin. Altman cũng thường xuyên nói xấu nhân viên sau lưng trong khi thúc ép họ triển khai sản phẩm ngày càng nhanh. Greg Brockman, một đồng sáng lập khác và là chủ tịch OpenAI, cũng góp phần vào các vấn đề khi thường xuyên can thiệp vào các dự án và làm chệch hướng các kế hoạch dài hạn bằng những thay đổi vào phút chót.2
- Sutskever và Murati mất niềm tin: Đến giữa năm 2023, Sutskever không chỉ bị ám ảnh bởi nguy cơ từ AGI mà còn bởi một nỗi lo khác: sự xói mòn niềm tin rằng OpenAI có thể duy trì các tiến bộ kỹ thuật để đạt được AGI, hoặc gánh vác trách nhiệm đó với Altman là người lãnh đạo. Murati, người luôn đóng vai trò cầu nối và triển khai chiến lược của Altman, cũng ngày càng thất vọng vì không thể có được câu trả lời thẳng thắn từ ông.
- Sự cố GPT-4 Turbo: Altman được cho là đã nói với Murati rằng đội ngũ pháp lý của OpenAI đã chấp thuận cho mô hình GPT-4 Turbo mới nhất bỏ qua quy trình đánh giá của Ban An toàn Triển khai (DSB) – một ủy ban gồm đại diện của Microsoft và OpenAI. Nhưng khi Murati kiểm tra lại với Jason Kwon, người giám sát đội ngũ pháp lý, Kwon không hề biết Altman đã có được ấn tượng đó từ đâu.
- Tiếp cận Hội đồng quản trị: Mùa thu năm 2023, Sutskever và Murati đã riêng biệt tiếp cận ba thành viên hội đồng quản trị độc lập (Helen Toner, Tasha McCauley, và Adam D’Angelo) và bày tỏ lo ngại về sự lãnh đạo của Altman. Sutskever nói: "Tôi không nghĩ Sam là người nên có ngón tay trên nút bấm AGI." Murati cũng bày tỏ: "Tôi không cảm thấy thoải mái về việc Sam dẫn dắt chúng ta đến AGI."
- Quyết định sa thải: Các giám đốc độc lập, vốn cũng đã có những lo ngại riêng về Altman (ông không minh bạch về nhiều vấn đề, từ vi phạm quy trình của DSB đến cấu trúc pháp lý của OpenAI Startup Fund mà Altman sở hữu riêng), đã bị tác động mạnh mẽ. Họ bắt đầu họp gần như hàng ngày. Sutskever và Murati đã cung cấp các tài liệu và bằng chứng về hành vi của Altman. Đến ngày 11 tháng 11, họ quyết định sẽ sa thải Altman và đưa Murati lên làm CEO tạm quyền. Ngày 17 tháng 11 năm 2023, Sutskever đã sa thải Altman qua Google Meet.
Tưởng chừng mọi việc đã ổn định, Murati bất ngờ báo cáo với hội đồng quản trị rằng Altman và Brockman đang nói với mọi người rằng việc Altman bị loại bỏ là một cuộc đảo chính của Sutskever. Trong một cuộc họp toàn công ty, Sutskever đã không thể truyền đạt một cách hiệu quả lý do sa thải Altman.
Ngay sau đó, Brockman nghỉ việc để phản đối, theo sau là ba nhà nghiên cứu cấp cao khác. Nhân viên ngày càng tức giận do thiếu thông tin rõ ràng, lo sợ mất quyền lợi từ việc bán cổ phần và nguy cơ công ty sụp đổ.
Trước khả năng OpenAI tan rã, Sutskever bắt đầu lung lay và kêu gọi hội đồng quản trị xem xét lại. Murati, người dù có phản hồi tiêu cực về Altman nhưng không tham gia vào quá trình thảo luận sa thải, cũng không còn sẵn sàng công khai ủng hộ quyết định của hội đồng. Đến sáng thứ Hai, hội đồng quản trị đã thất thế. Murati và Sutskever đổi phe. Altman quay trở lại.

OpenAI ngày nay: Từ phi lợi nhuận đến đế chế thương mại
Karen Hao nhận định, vụ việc tháng 11 năm 2023 cho thấy rõ cuộc đấu tranh quyền lực giữa một nhóm nhỏ các tinh hoa ở Thung lũng Silicon đang định hình tương lai của AI. OpenAI ngày nay đã trở thành mọi thứ mà nó từng tuyên bố sẽ không trở thành: một tổ chức phi lợi nhuận chỉ trên danh nghĩa, tích cực thương mại hóa sản phẩm như ChatGPT, tìm kiếm các mức định giá lịch sử và ngày càng trở nên bí mật hơn.
Trong khi các công ty AI ngày càng giàu có (OpenAI được định giá 300 tỷ USD vào tháng 3, Anthropic hơn 60 tỷ USD), ngày càng có nhiều nghi ngờ về giá trị kinh tế thực sự của AI tạo sinh. Nhiều nghiên cứu cho thấy công nghệ này không mang lại lợi ích về năng suất cho hầu hết người lao động, đồng thời làm xói mòn tư duy phản biện của họ. Thay vào đó, nó dường như chỉ tập trung thêm của cải vào tay một số ít. Cùng lúc đó, chi phí nhân lực và vật chất đang đè nặng lên nhiều thành phần xã hội, đặc biệt là những người dễ bị tổn thương.
Để xoa dịu những lo ngại, Altman ngày càng lớn tiếng thổi phồng những lợi ích tương lai của AGI, biến nó thành một "cái cớ toàn năng, kỳ ảo" để OpenAI tiếp tục theo đuổi sự giàu có và quyền lực hơn nữa. Sau "The Blip" (tên nhân viên OpenAI gọi cuộc khủng hoảng), Sutskever và Murati đều đã rời OpenAI, nối dài danh sách các lãnh đạo từng xung đột với Altman. Họ đã thành lập công ty riêng để cạnh tranh trong cuộc đua công nghệ này.
Câu chuyện của OpenAI đặt ra câu hỏi cấp bách: Chúng ta quản trị trí tuệ nhân tạo như thế nào để đảm bảo một tương lai tốt đẹp hơn, chứ không phải tồi tệ hơn?