Jimmy
Moderator
Một số cựu nhân viên của công ty trí tuệ nhân tạo nổi tiếng OpenAI đang lên tiếng về văn hóa làm việc 'liều lĩnh' tại đây. Họ bày tỏ lo ngại rằng CEO Sam Altman chưa làm đủ để ngăn chặn các hệ thống AI trở nên nguy hiểm.
Theo những người này, OpenAI, vốn khởi đầu như một phòng thí nghiệm nghiên cứu phi lợi nhuận, giờ đây đang ưu tiên lợi nhuận và tăng trưởng hơn là tập trung vào an toàn người dùng. Công ty cũng bị cáo buộc áp dụng các biện pháp cứng rắn để ngăn cản nhân viên nêu lên mối quan ngại về công nghệ, bao gồm thỏa thuận hạn chế chỉ trích công ty sau khi nghỉ việc.
Sam Altman đang trở thành kẻ phản diện với nội bộ OpenAI
Daniel Kokotajlo, cựu nhân viên thuộc bộ phận quản trị của OpenAI, chia sẻ: "OpenAI thực sự hào hứng với việc xây dựng A.G.I. Họ đang chạy đua một cách liều lĩnh để trở thành người tiên phong".
Một nhóm cựu nhân viên gồm William Saunders, Carroll Wainwright, Jacob Hilton và Daniel Ziegler đã viết thư kêu gọi các lãnh đạo A.I., trong đó có OpenAI, nâng cao tính minh bạch và tăng cường biện pháp bảo vệ cho những người dũng cảm tố giác. Theo Kokotajlo, một số nhân viên hiện tại của OpenAI cũng đồng tình nhưng chỉ dám xác nhận ẩn danh vì sợ bị trả thù.
Phản hồi về vấn đề này, đại diện OpenAI, Lindsey Held, tuyên bố: "Chúng tôi tự hào về thành tích và tin tưởng cách tiếp cận khoa học của mình. Chúng tôi đồng ý rằng cuộc tranh luận gay gắt trên là rất quan trọng. Chúng tôi sẽ tiếp tục hợp tác với chính phủ và các cộng đồng khác trên khắp thế giới".
OpenAI đang trải qua giai đoạn khó khăn sau cuộc 'đảo chính' bất thành nhằm sa thải CEO Sam Altman vào năm ngoái. Công ty cũng đối mặt với các vụ kiện từ những người sáng tạo nội dung cáo buộc đào tạo AI bằng tác phẩm có bản quyền. Kế hoạch ra mắt trợ lý giọng nói siêu thực cũng đổ bể sau tranh cãi với nữ diễn viên Scarlett Johansson.
Gần đây, hai lãnh đạo cấp cao là Tiến sĩ Sutskever và Tiến sĩ Leike đã từ chức. Họ cảnh báo về rủi ro tiềm ẩn của AI và cho rằng "văn hóa và quy trình an toàn tại công ty đã nhường chỗ cho các sản phẩm sáng bóng".
Nhiều người cho rằng OpenAI đang đi quá nhanh mà quên đi việc tạo ra một AI an toàn với nhân loại
Daniel Kokotajlo, 31 tuổi, tin rằng phiên bản AI cao cấp hơn có thể gây tổn hại hoặc hủy diệt nhân loại. Anh đã khuyên Sam Altman tập trung vào an toàn người dùng nhưng không thấy thay đổi đáng kể nào. Kokotajlo nghỉ việc vào tháng 4, từ chối ký thỏa thuận hạn chế phát ngôn và sẵn sàng trả lại 1,7 triệu USD vốn chủ sở hữu nếu bị yêu cầu.
Trước đó, CEO Sam Altman cũng từng có kế hoạch gọi vốn 7 nghìn tỷ USD cho một dự án AI tham vọng, song bị các chuyên gia đánh giá là thách thức vô cùng lớn. Gần đây nhất, nhóm Superalignment chuyên giảm thiểu rủi ro AI tại OpenAI cũng vừa bị giải thể.
Xung đột giữa Sam Altman và ban quản trị về tốc độ phát triển của OpenAI đang ngày càng gia tăng. Tiến sĩ Sutskever lo ngại Altman đang thúc đẩy quá nhanh và muốn thận trọng hơn, nhưng dần bị gạt ra khỏi các quyết định quan trọng liên quan đến GPT-5 và kế hoạch mở rộng sản phẩm. #nhânviênOpenAInổidậy
Theo những người này, OpenAI, vốn khởi đầu như một phòng thí nghiệm nghiên cứu phi lợi nhuận, giờ đây đang ưu tiên lợi nhuận và tăng trưởng hơn là tập trung vào an toàn người dùng. Công ty cũng bị cáo buộc áp dụng các biện pháp cứng rắn để ngăn cản nhân viên nêu lên mối quan ngại về công nghệ, bao gồm thỏa thuận hạn chế chỉ trích công ty sau khi nghỉ việc.
Sam Altman đang trở thành kẻ phản diện với nội bộ OpenAI
Daniel Kokotajlo, cựu nhân viên thuộc bộ phận quản trị của OpenAI, chia sẻ: "OpenAI thực sự hào hứng với việc xây dựng A.G.I. Họ đang chạy đua một cách liều lĩnh để trở thành người tiên phong".
Một nhóm cựu nhân viên gồm William Saunders, Carroll Wainwright, Jacob Hilton và Daniel Ziegler đã viết thư kêu gọi các lãnh đạo A.I., trong đó có OpenAI, nâng cao tính minh bạch và tăng cường biện pháp bảo vệ cho những người dũng cảm tố giác. Theo Kokotajlo, một số nhân viên hiện tại của OpenAI cũng đồng tình nhưng chỉ dám xác nhận ẩn danh vì sợ bị trả thù.
Phản hồi về vấn đề này, đại diện OpenAI, Lindsey Held, tuyên bố: "Chúng tôi tự hào về thành tích và tin tưởng cách tiếp cận khoa học của mình. Chúng tôi đồng ý rằng cuộc tranh luận gay gắt trên là rất quan trọng. Chúng tôi sẽ tiếp tục hợp tác với chính phủ và các cộng đồng khác trên khắp thế giới".
OpenAI đang trải qua giai đoạn khó khăn sau cuộc 'đảo chính' bất thành nhằm sa thải CEO Sam Altman vào năm ngoái. Công ty cũng đối mặt với các vụ kiện từ những người sáng tạo nội dung cáo buộc đào tạo AI bằng tác phẩm có bản quyền. Kế hoạch ra mắt trợ lý giọng nói siêu thực cũng đổ bể sau tranh cãi với nữ diễn viên Scarlett Johansson.
Gần đây, hai lãnh đạo cấp cao là Tiến sĩ Sutskever và Tiến sĩ Leike đã từ chức. Họ cảnh báo về rủi ro tiềm ẩn của AI và cho rằng "văn hóa và quy trình an toàn tại công ty đã nhường chỗ cho các sản phẩm sáng bóng".
Nhiều người cho rằng OpenAI đang đi quá nhanh mà quên đi việc tạo ra một AI an toàn với nhân loại
Daniel Kokotajlo, 31 tuổi, tin rằng phiên bản AI cao cấp hơn có thể gây tổn hại hoặc hủy diệt nhân loại. Anh đã khuyên Sam Altman tập trung vào an toàn người dùng nhưng không thấy thay đổi đáng kể nào. Kokotajlo nghỉ việc vào tháng 4, từ chối ký thỏa thuận hạn chế phát ngôn và sẵn sàng trả lại 1,7 triệu USD vốn chủ sở hữu nếu bị yêu cầu.
Trước đó, CEO Sam Altman cũng từng có kế hoạch gọi vốn 7 nghìn tỷ USD cho một dự án AI tham vọng, song bị các chuyên gia đánh giá là thách thức vô cùng lớn. Gần đây nhất, nhóm Superalignment chuyên giảm thiểu rủi ro AI tại OpenAI cũng vừa bị giải thể.
Xung đột giữa Sam Altman và ban quản trị về tốc độ phát triển của OpenAI đang ngày càng gia tăng. Tiến sĩ Sutskever lo ngại Altman đang thúc đẩy quá nhanh và muốn thận trọng hơn, nhưng dần bị gạt ra khỏi các quyết định quan trọng liên quan đến GPT-5 và kế hoạch mở rộng sản phẩm. #nhânviênOpenAInổidậy