Giải mã độc quyền câu chuyện nội bộ của OpenAI: trò chơi kiếm tiền bí ẩn giữa nhân viên và CEO!

Trong OpenAI, một cơn bão về tiền bạc và quyền lực đang âm thầm hình thành. Bài viết này đi sâu hơn vào trò chơi quyền lực đằng sau câu chuyện trả lương, tiết lộ những cuộc chiến khốc liệt giữa những người đứng đầu công ty và các vị trí trong nhóm nhân viên. Trong câu chuyện này, cuộc chiến giữa tiền bạc và lợi ích không chỉ là trò chơi của những con số mà còn là cuộc chiến về đạo đức và giá trị kinh doanh của công nghệ tương lai.

OpenAI lương cao ngất ngưởng 6 triệu​

Mới đây, việc lộ dạng hình thức trả lương một lần nữa khiến dư luận chú ý và bàn tán sôi nổi về mức lương của các công ty công nghệ. Trong bảng lương này, OpenAI đứng đầu với mức lương hàng năm lên tới 865 ngàn đô, rất bắt mắt. Con số này cực kỳ bắt mắt so với các hãng công nghệ lớn khác.
Giải mã độc quyền câu chuyện nội bộ của OpenAI: trò chơi kiếm tiền bí ẩn giữa nhân viên và CEO!

Các kỹ sư AI ở các công ty hàng đầu kiếm được bao nhiêu?​

Từ bảng trên, chúng ta có thể biết rằng OpenAI hào phóng cung cấp cho nhân viên mức lương hàng năm lên tới 865.000 USD, trong đó mức lương cơ bản là 665.000 USD và mức tăng lương hàng năm lên tới 30%.
Từ một báo cáo trước đó do trang web thu thập dữ liệu của công ty công nghệ Mỹ công bố, hiệu suất lương của OpenAI đã được tiết lộ. Mức lương trung bình hàng năm của các kỹ sư phần mềm tại OpenAI đạt 925.000 USD. Giá trị này tương ứng với mức lương của kỹ sư phần mềm cấp 5 của OpenAI, bao gồm mức lương cơ bản 300.000 USD và thưởng cổ phiếu 625.000 USD. Loại kỹ sư phần mềm cấp 5 này thường có khoảng 10 năm kinh nghiệm làm việc.
Báo cáo đề cập rằng tiêu chuẩn lương tối thiểu dành cho các kỹ sư có 2-4 năm kinh nghiệm làm việc, với mức lương hàng năm là 210.000 USD, không bao gồm lương cổ phiếu. Người ta hiểu rằng một số kỹ sư phần mềm cấp cao tại OpenAI có thể kiếm tới 1,4 triệu USD mỗi năm, điều này nêu bật chính sách hoàn trả hào phóng dành cho những tài năng cấp cao.
Như có thể thấy từ so sánh trong bảng, mức lương hàng năm cuối cùng của Google Brain là 695.000 đô la Mỹ và mức lương hàng năm cuối cùng của Google Research là 549.000 đô la Mỹ; mức lương hàng năm ban đầu của Microsoft là 270.000 đô la Mỹ và mức lương hàng năm cuối cùng 449.000 đô la Mỹ, có thương lượng tăng 66% và Apple, mức lương hàng năm ban đầu 337.000 USD và mức lương hàng năm cuối cùng 450.000 USD, với mức tăng thương lượng là 33%.
Nhìn chung, mức lương hàng năm cuối cùng của OpenAI cao hơn nhiều so với Google Brain, Microsoft Research và Apple. Mức lương của Apple nằm giữa Google và Microsoft, ở mức trung bình.
So với các công ty như Google, Microsoft và Apple, OpenAI vượt xa về mức lương, điều này cũng phản ánh mong muốn của OpenAI về những nhân tài hàng đầu trong ngành và giúp đảm bảo có thể thu hút và giữ chân những nhân tài cao cấp.

Tại sao nhân viên lại đứng về phía Altman? Báo cáo lương này đưa ra câu trả lời​

Nhìn lại cuộc chiến nội bộ của OpenAI cách đây không lâu, các nhân viên của hãng này rõ ràng đã đứng về phía CEO Altman, và lý do có thể thấy từ mức lương. OpenAI đưa ra mức lương cao ngất ngưởng, chẳng trách nhân viên không muốn rời đi và ký một lá thư chung đe dọa ban giám đốc.
Tôi tin rằng nhiều người vẫn còn nhớ món "quả dưa" gây sốc mà họ từng ăn trước đây, kịch tính "đấu đá nội bộ" đã mở mang tầm mắt.
Sau khi bị ban giám đốc OpenAI "đá" ra khỏi công ty, khi cựu lãnh đạo OpenAI Sam Altman đặt chân vào công ty một lần nữa, sự thay đổi danh tính khiến ông thở dài: "Đây là lần đầu tiên và cũng là lần cuối cùng tôi đeo thẻ khách".
Ngay khi thế giới bên ngoài thường tin rằng việc Altman rời khỏi OpenAI là một kết cục đã được định trước thì vấn đề lại dẫn đến một sự đảo ngược gây sốc, tái bổ nhiệm Altman làm CEO, nếu không những nhân viên này có thể chọn rời đi và gia nhập nhóm của Altman tại Microsoft. Theo tổng số nhân viên của OpenAI là khoảng 770 nhân viên, những nhân viên đã ký bức thư chung này chiếm hơn 60% tổng số nhân viên.
Cũng có thông tin tiết lộ rằng các nhà đầu tư của OpenAI cũng đã gây áp lực lên ban giám đốc, kêu gọi Altman được bổ nhiệm lại làm Giám đốc điều hành OpenAI, bao gồm cổ đông lớn nhất Microsoft với hy vọng sẽ thúc đẩy Altman để "khôi phục lại vị trí chính thức của mình."
Tại sao các nhà đầu tư và nhân viên lại tôn trọng Altman đến mức nhân viên thậm chí sẵn sàng hy sinh công việc để đẩy Altman quay trở lại OpenAI? Đây là một câu hỏi kích thích tư duy.
Nhìn lại lịch sử phát triển của OpenAI, Altman với tư cách là thành viên trong nhóm sáng lập có thể coi là thành viên kỳ cựu và đã có những đóng góp quan trọng. Tuy nhiên, liên quan đến việc Altman "đá" khỏi OpenAI, OpenAI tuyên bố rằng sau khi xem xét cẩn thận trước sự ra đi của Altman, ban giám đốc đã kết luận rằng Altman không đủ thẳng thắn trong việc giao tiếp với ban giám đốc, điều này đã cản trở khả năng thực hiện nhiệm vụ của mình. Kết quả là ban giám đốc đã mất niềm tin vào việc ông tiếp tục lãnh đạo OpenAI.
Nhưng cũng có suy đoán rằng nó có thể liên quan đến sự hung hăng và thương mại hóa quá mức của Altman trong lĩnh vực bảo mật, điều này gây ra sự không hài lòng của các thành viên hội đồng quản trị khác (bao gồm cả người đồng sáng lập llya).
Nhưng kết hợp với việc lộ lương của OpenAI, có thể thấy Altman đã thúc đẩy việc thương mại hóa OpenAI, dẫn đến doanh thu và định giá của OpenAI cao, đây cũng là cơ sở để nhân viên OpenAI nhận lương cao.
Từ góc độ này, lộ trình hiện tại của Altman phù hợp hơn với lợi ích của nhân viên OpenAI, đây có thể là lý do chính khiến nó được nhân viên ủng hộ.

Mặt B của mức lương cao ngất trời​

Giải mã độc quyền câu chuyện nội bộ của OpenAI: trò chơi kiếm tiền bí ẩn giữa nhân viên và CEO!
OpenAI nêu rõ "Trách nhiệm được ủy thác đầu tiên của chúng tôi là đối với nhân loại. Chúng tôi thấy trước sự cần thiết phải huy động các nguồn lực quan trọng để đạt được sứ mệnh của mình, nhưng chúng tôi sẽ tiếp tục nỗ lực hành động để trao quyền cho nhân viên giảm thiểu xung đột lợi ích với các bên liên quan có thể gây tổn hại đến lợi ích rộng hơn”.
Từ điều khoản này có thể thấy rằng Điều lệ OpenAI quy định trách nhiệm ủy thác của con người cao hơn trách nhiệm của nhân viên, nhà đầu tư và các bên liên quan khác, đồng thời họ thấy trước tương lai của nhân viên, nhà đầu tư và các bên liên quan khác khi bắt đầu thành lập sẽ mâu thuẫn với nghĩa vụ ủy thác của nó đối với nhân loại. Từ "trò chơi vương quyền" của OpenAI cách đây không lâu, có thể chia thành hai phe:
Đại diện bởi nhà khoa học trưởng lya Sutskever, họ quan tâm nhiều hơn đến sự an toàn của trí tuệ nhân tạo và tránh mối đe dọa về AI ngoài tầm kiểm soát đối với con người. Để đạt được mục tiêu này, họ thà để OpenAI giảm tốc độ nghiên cứu và phát triển và không vội vàng nghiên cứu và phát triển AI tiên tiến hơn trước khi tìm ra giải pháp an toàn;
Đại diện bởi CEO Sam Altman, họ quan tâm nhiều hơn đến khả năng thương mại hóa của OpenAI, chỉ khi thương mại hóa tốt hơn thì họ mới có nhiều vốn hơn và định giá công ty sẽ cao hơn.
Nhân viên của OpenAI chắc chắn hy vọng rằng công ty có thể kiếm được nhiều tiền hơn và định giá công ty phải cao nhất có thể, bởi vì phần lớn cơ cấu thù lao của họ là cổ phiếu. Vì lý do này, họ thậm chí còn hy vọng rằng công ty có thể IPO càng sớm càng tốt và đạt được tự do tài chính càng sớm càng tốt. So với điều này, những rủi ro của trí tuệ nhân tạo đối với con người cần phải được đặt sang một bên.
Vì vậy, vào thời điểm này, lợi ích của nhân viên và nhà đầu tư của OpenAI rõ ràng đang xung đột với lợi ích của toàn nhân loại. Nếu điều lệ ban đầu do OpenAI xây dựng được tuân thủ đầy đủ thì trách nhiệm ủy thác của con người cao hơn của nhân viên và nhà đầu tư, lợi ích của con người cần được ưu tiên.
Tuy nhiên, xét từ kết quả cuối cùng của cuộc chiến tại tòa án OpenAI, khi lợi ích của nhân viên mâu thuẫn với trách nhiệm ủy thác của con người, OpenAI vẫn chọn lợi ích của nhân viên, nhà đầu tư và các bên liên quan khác. Bởi vì chính những bên liên quan này là người đưa ra lựa chọn vào lúc này. Họ khó có thể làm tổn hại đến lợi ích của chính mình vì công lý của con người.
Trên thực tế, nếu phóng to lên một chút, chúng ta sẽ thấy một vấn đề nghiêm trọng hơn - Trong cuộc cạnh tranh AGI, một số nhóm lợi ích có thể xung đột với lợi ích của nhân loại vì tổng thể, rất có thể một số nhóm sẽ thỏa mãn lợi ích ích kỷ của bản thân mà gây tổn hại đến lợi ích của toàn nhân loại.
Trong cuộc chạy đua vũ trang trên con đường AGI, nhiều gã khổng lồ công nghệ khác nhau đang nỗ lực đào tạo các mô hình mạng thần kinh phức tạp và mạnh mẽ hơn, không muốn đối thủ vượt qua mình. Nhưng từ góc nhìn của toàn nhân loại, cuộc chạy đua vũ trang của các công ty này rất giống với cuộc chạy đua vũ trang ban đầu về vũ khí hạt nhân.
Chỉ là vũ khí hạt nhân là cuộc cạnh tranh giữa các quốc gia, còn bây giờ cuộc chạy đua vũ trang của AGI là giữa Google, Microsoft, Amazon, Meta, OpenAI và Baidu, Alibaba, Huawei, Tencent, JD.com, iFlytek, Zhipu trong nước Cạnh tranh từ các hãng công nghệ chẳng hạn như AI.
Vì giá trị thị trường của họ và để nhân viên trong công ty có thu nhập tốt hơn, các công ty này sẽ gấp rút đào tạo những mô hình AI mạnh mẽ hơn. Về các biện pháp an ninh, đặc biệt là biện pháp ngăn chặn AGI vượt khỏi tầm kiểm soát, thực tế đã bị gạt sang một bên. Nói cách khác, trách nhiệm ủy thác của con người đã bị gạt sang một bên.
OpenAI ban đầu tương đối lý tưởng, thậm chí họ còn xây dựng một “Điều lệ” trong đó nêu rõ rằng trách nhiệm ủy thác của con người là ưu tiên hàng đầu. Nhưng về sau, nhóm người đó đã phá bỏ niềm tin và lời hứa ban đầu vì lợi ích của mình, ngày càng thương mại hóa và theo đuổi lợi nhuận.
Bạn biết đấy, OpenAI ban đầu là một nhóm người được tập hợp lại với nhau bởi một khái niệm, vì họ không thể “hy sinh bản thân vì toàn thể nhân loại” nên liệu họ có thể mong đợi các công ty khác làm được điều đó không?
Hơn nữa,Trong lĩnh vực AGI, tương tự như cuộc chạy đua vũ khí hạt nhân ban đầu, những người chịu thiệt đều là những “người lương thiện”. Bạn không làm thì đương nhiên người khác sẽ làm, còn nếu người khác làm thì bạn sẽ lỗ. Ở một mức độ nào đó, con người bị mắc kẹt trong tình thế "tiến thoái lưỡng nan".

Tại sao nói như vậy?​

Khi phân tích sự tương tự giữa cạnh tranh AGI và tình thế tiến thoái lưỡng nan, chúng ta có thể tìm thấy một số điểm tương đồng cốt lõi:
1. Những người tham gia không tin tưởng lẫn nhau: Trong thế tiến thoái lưỡng nan, hai người có xu hướng làm những việc có lợi cho bản thân nhưng không lý tưởng cho cả hai bên vì họ không tin tưởng lẫn nhau. Tương tự, trong một cuộc thi AGI, cá nhân người tham gia có thể chọn đẩy nhanh sự phát triển của AGI vì họ không tin tưởng những người tham gia khác sẽ kiềm chế bản thân, ngay cả khi điều này có thể dẫn đến gia tăng rủi ro bảo mật.
2. Lựa chọn tối ưu mang lại kết quả bất lợi tập thể: Trong thế tiến thoái lưỡng nan, mặc dù hợp tác là kết quả tập thể tốt nhất nhưng những lựa chọn tự bảo vệ của cá nhân lại dẫn đến tổn thất cho cả hai bên. Trong lĩnh vực AGI, nếu tất cả những người tham gia đều lựa chọn phát triển AGI nhanh chóng mà bỏ qua những cân nhắc về an toàn thì điều này có thể dẫn đến những rủi ro không thể kiểm soát và gây bất lợi cho toàn xã hội loài người.
3. Xung đột giữa cạnh tranh và hợp tác: Tương tự như sự lựa chọn giữa hợp tác và lợi ích cá nhân trong thế lưỡng nan, cuộc thi AGI cũng đứng trước sự lựa chọn giữa cạnh tranh ngắn hạn và hợp tác lâu dài. Lựa chọn cạnh tranh có thể mang lại lợi ích trước mắt nhưng rủi ro là mất đi an ninh và lợi ích tập thể.
Vì vậy, sự cạnh tranh của AGI có thể được coi là một tình thế tiến thoái lưỡng nan, bộc lộ sự phức tạp trong việc làm thế nào để cân bằng giữa lợi ích cá nhân và lợi ích tập thể tốt nhất khi không có đủ sự tin tưởng và hợp tác.
Là hàng tỷ người trên hành tinh, hầu hết họ chỉ có thể là khán giả trong cuộc thi AGI này. Tuy nhiên, nếu có bất kỳ hậu quả bất lợi nào, tất cả chúng ta phải cùng nhau gánh chịu.
Điều này thực sự không công bằng!
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top