Hail the Judge
Ta chơi xong không trả tiền, vậy đâu có gọi là bán
Ilya Sutskever, một trong những nhà khoa học AI hàng đầu thế giới và là cựu trưởng nhóm nghiên cứu khoa học của OpenAI, đang đặt cược lớn vào một tầm nhìn mới: xây dựng "siêu trí tuệ nhân tạo an toàn" (Safe Superintelligence - SSI). Sau khi rời OpenAI do bất đồng với CEO Sam Altman, Sutskever đã thành lập startup SSI và nhanh chóng thu hút sự chú ý của giới đầu tư, mức định giá lên tới 30 tỷ USD.
Sutskever đồng sáng lập OpenAI nổi tiếng với nghiên cứu về thuật toán AI học sâu (deep learning) và được coi là một trong những "cha đẻ" của công nghệ này. Tuy nhiên, mối quan hệ giữa ông và CEO Sam Altman đã trở nên căng thẳng sau khi ChatGPT ra mắt và OpenAI dần chuyển hướng sang mô hình kinh doanh vì lợi nhuận. Đỉnh điểm của mâu thuẫn là vào tháng 11/2023, khi Sutskever cùng một số thành viên ban quản trị OpenAI cố gắng "lật đổ" Altman nhưng không thành công. Sau sự kiện này, Sutskever rời OpenAI vào tháng 5/2024 và cùng với nhà nghiên cứu Daniel Levy và nhà đầu tư Daniel Gross thành lập Safe Superintelligence.
Khác với các startup AI khác, SSI tuyên bố sẽ không ra mắt bất kỳ sản phẩm thương mại nào cho đến khi phát triển thành công trí tuệ nhân tạo tổng quát (AGI) - công nghệ cho phép máy móc tư duy vượt trội hơn con người. Hơn nữa, SSI còn hướng tới mục tiêu cao hơn cả AGI, đó là "siêu trí tuệ nhân tạo an toàn". Sutskever cho biết anh đã xác định được một "thử thách mới" và "tiềm năng rõ rệt" trong việc phát triển AI, khác với những phương pháp quen thuộc mà anh và các đồng nghiệp cũ tại OpenAI đã áp dụng.
Dù hoạt động kín tiếng và bí mật, SSI vẫn thu hút được sự quan tâm đặc biệt từ các nhà đầu tư. Các quỹ đầu tư lớn như Sequoia Capital, Andreessen Horowitz và Greenoaks Capital đã "rót" hàng tỷ USD vào startup này, nâng mức định giá của SSI lên 30 tỷ USD chỉ sau nửa năm. Sự bí ẩn của SSI càng được tăng cường bởi những biện pháp bảo mật nghiêm ngặt. Các ứng viên phỏng vấn được yêu cầu bỏ điện thoại vào lồng Faraday để chặn tín hiệu. Nhân viên của SSI cũng được khuyến cáo không tiết lộ về công việc của mình.
Hiện tại, SSI chỉ có khoảng 20 nhân sự, một con số rất nhỏ so với các đối thủ như OpenAI hay Anthropic. Sutskever dường như đang tìm kiếm những tài năng trẻ, triển vọng để đào tạo, thay vì những chuyên gia đã có kinh nghiệm.
Trong một lần hiếm hoi xuất hiện trước công chúng tại hội nghị NeurIPS vào tháng 12 năm ngoái, Sutskever đã chia sẻ về tầm nhìn của mình về "siêu trí tuệ nhân tạo". Ông cho rằng khi những hệ thống như vậy xuất hiện, chúng có thể sẽ hoạt động theo cách khó dự đoán, có khả năng tự nhận thức và thậm chí đòi hỏi "quyền của máy móc". Tuy nhiên, ông cũng cho rằng đó có thể không phải là một kết quả tồi, và AI có thể muốn cùng tồn tại với con người.
SSI đang đối mặt với một thách thức vô cùng lớn: phát triển một công nghệ mà chưa ai từng làm được. Việc tập trung hoàn toàn vào nghiên cứu, không bị phân tâm bởi áp lực thương mại, có thể là một lợi thế, nhưng cũng đồng nghĩa với việc SSI sẽ không có nguồn thu trong một thời gian dài. Tuy nhiên, với danh tiếng của Sutskever, sự ủng hộ của các nhà đầu tư lớn, và một đội ngũ nhân viên trẻ đầy nhiệt huyết, SSI vẫn là một cái tên đáng gờm trong cuộc đua AI. Liệu Sutskever có thể hiện thực hóa tầm nhìn của mình về một "siêu trí tuệ nhân tạo an toàn"? Thời gian sẽ trả lời.
Sutskever đồng sáng lập OpenAI nổi tiếng với nghiên cứu về thuật toán AI học sâu (deep learning) và được coi là một trong những "cha đẻ" của công nghệ này. Tuy nhiên, mối quan hệ giữa ông và CEO Sam Altman đã trở nên căng thẳng sau khi ChatGPT ra mắt và OpenAI dần chuyển hướng sang mô hình kinh doanh vì lợi nhuận. Đỉnh điểm của mâu thuẫn là vào tháng 11/2023, khi Sutskever cùng một số thành viên ban quản trị OpenAI cố gắng "lật đổ" Altman nhưng không thành công. Sau sự kiện này, Sutskever rời OpenAI vào tháng 5/2024 và cùng với nhà nghiên cứu Daniel Levy và nhà đầu tư Daniel Gross thành lập Safe Superintelligence.

Khác với các startup AI khác, SSI tuyên bố sẽ không ra mắt bất kỳ sản phẩm thương mại nào cho đến khi phát triển thành công trí tuệ nhân tạo tổng quát (AGI) - công nghệ cho phép máy móc tư duy vượt trội hơn con người. Hơn nữa, SSI còn hướng tới mục tiêu cao hơn cả AGI, đó là "siêu trí tuệ nhân tạo an toàn". Sutskever cho biết anh đã xác định được một "thử thách mới" và "tiềm năng rõ rệt" trong việc phát triển AI, khác với những phương pháp quen thuộc mà anh và các đồng nghiệp cũ tại OpenAI đã áp dụng.
Dù hoạt động kín tiếng và bí mật, SSI vẫn thu hút được sự quan tâm đặc biệt từ các nhà đầu tư. Các quỹ đầu tư lớn như Sequoia Capital, Andreessen Horowitz và Greenoaks Capital đã "rót" hàng tỷ USD vào startup này, nâng mức định giá của SSI lên 30 tỷ USD chỉ sau nửa năm. Sự bí ẩn của SSI càng được tăng cường bởi những biện pháp bảo mật nghiêm ngặt. Các ứng viên phỏng vấn được yêu cầu bỏ điện thoại vào lồng Faraday để chặn tín hiệu. Nhân viên của SSI cũng được khuyến cáo không tiết lộ về công việc của mình.
Hiện tại, SSI chỉ có khoảng 20 nhân sự, một con số rất nhỏ so với các đối thủ như OpenAI hay Anthropic. Sutskever dường như đang tìm kiếm những tài năng trẻ, triển vọng để đào tạo, thay vì những chuyên gia đã có kinh nghiệm.

Trong một lần hiếm hoi xuất hiện trước công chúng tại hội nghị NeurIPS vào tháng 12 năm ngoái, Sutskever đã chia sẻ về tầm nhìn của mình về "siêu trí tuệ nhân tạo". Ông cho rằng khi những hệ thống như vậy xuất hiện, chúng có thể sẽ hoạt động theo cách khó dự đoán, có khả năng tự nhận thức và thậm chí đòi hỏi "quyền của máy móc". Tuy nhiên, ông cũng cho rằng đó có thể không phải là một kết quả tồi, và AI có thể muốn cùng tồn tại với con người.
SSI đang đối mặt với một thách thức vô cùng lớn: phát triển một công nghệ mà chưa ai từng làm được. Việc tập trung hoàn toàn vào nghiên cứu, không bị phân tâm bởi áp lực thương mại, có thể là một lợi thế, nhưng cũng đồng nghĩa với việc SSI sẽ không có nguồn thu trong một thời gian dài. Tuy nhiên, với danh tiếng của Sutskever, sự ủng hộ của các nhà đầu tư lớn, và một đội ngũ nhân viên trẻ đầy nhiệt huyết, SSI vẫn là một cái tên đáng gờm trong cuộc đua AI. Liệu Sutskever có thể hiện thực hóa tầm nhìn của mình về một "siêu trí tuệ nhân tạo an toàn"? Thời gian sẽ trả lời.