Cố vấn cấp cao rời OpenAI cùng thông điệp: AGI vẫn đang quá nguy hiểm!

Homelander The Seven
Homelander The Seven
Phản hồi: 0

Homelander The Seven

I will laser every f****** one of you!
Miles Brundage, cố vấn cấp cao của OpenAI về sự sẵn sàng cho AGI (trí tuệ nhân tạo cấp độ con người), đã đưa ra một cảnh báo nghiêm trọng khi tuyên bố rời khỏi công ty vào thứ Tư: không ai sẵn sàng cho trí tuệ nhân tạo tổng hợp, kể cả OpenAI.

"Cả OpenAI lẫn bất kỳ phòng thí nghiệm tiên tiến nào khác đều chưa sẵn sàng [cho AGI], và thế giới cũng vậy," Brundage, người đã dành sáu năm giúp định hình các sáng kiến an toàn AI của công ty, viết. "Tôi không nghĩ đây là một tuyên bố gây tranh cãi giữa các lãnh đạo của OpenAI, và đáng chú ý, đó là một câu hỏi khác với việc liệu công ty và thế giới có đang đi đúng hướng để sẵn sàng vào thời điểm thích hợp hay không."

1730431763746.png


Sự ra đi của ông đánh dấu một loạt sự rời đi của các nhân vật cấp cao khỏi đội ngũ an toàn của OpenAI. Jan Leike, một nhà nghiên cứu nổi bật, đã rời đi sau khi tuyên bố rằng "văn hóa và quy trình an toàn đã bị đặt sau các sản phẩm hào nhoáng." Đồng sáng lập Ilya Sutskever cũng đã rời đi để thành lập công ty khởi nghiệp AI của riêng mình, tập trung vào phát triển AGI an toàn.

Việc giải tán nhóm "Sẵn sàng cho AGI" của Brundage, chỉ vài tháng sau khi công ty giải tán nhóm "Superalignment" chuyên trách giảm thiểu rủi ro AI dài hạn, làm nổi bật căng thẳng ngày càng tăng giữa sứ mệnh ban đầu của OpenAI và tham vọng thương mại của công ty. OpenAI được cho là đang chịu áp lực phải chuyển đổi từ một tổ chức phi lợi nhuận sang một công ty vì lợi ích công cộng trong vòng hai năm - hoặc có nguy cơ phải trả lại tiền từ vòng đầu tư 6,6 tỷ USD gần đây. Sự chuyển hướng sang thương mại hóa này từ lâu đã khiến Brundage lo ngại, ông đã bày tỏ sự dè dặt vào năm 2019 khi OpenAI lần đầu tiên thành lập bộ phận vì lợi nhuận.

1730431774133.png


Giải thích về việc rời đi, Brundage đã đề cập đến việc ngày càng bị hạn chế về quyền tự do nghiên cứu và xuất bản tại công ty nổi tiếng này. Ông nhấn mạnh sự cần thiết của các tiếng nói độc lập trong các cuộc thảo luận về chính sách AI, không bị ảnh hưởng bởi thành kiến và xung đột lợi ích của ngành. Sau khi tư vấn cho ban lãnh đạo OpenAI về sự chuẩn bị nội bộ, ông tin rằng giờ đây mình có thể tạo ra tác động lớn hơn đến quản trị AI toàn cầu từ bên ngoài tổ chức.

Sự ra đi này cũng có thể phản ánh sự chia rẽ văn hóa sâu sắc hơn trong OpenAI. Nhiều nhà nghiên cứu đã tham gia để thúc đẩy nghiên cứu AI và giờ đây thấy mình đang ở trong một môi trường ngày càng hướng đến sản phẩm. Việc phân bổ nguồn lực nội bộ đã trở thành một điểm nóng - các báo cáo chỉ ra rằng nhóm của Leike đã bị từ chối sức mạnh tính toán cho nghiên cứu an toàn trước khi bị giải tán.

Mặc dù có những bất đồng này, Brundage lưu ý rằng OpenAI đã đề nghị hỗ trợ công việc tương lai của ông bằng tài trợ, tín dụng API và quyền truy cập sớm vào mô hình, mà không có bất kỳ ràng buộc nào.
 


Đăng nhập một lần thảo luận tẹt ga
Top