A-Train The Seven
...'cause for once, I didn't hate myself.
Google đã xóa bỏ cam kết không sử dụng trí tuệ nhân tạo (AI) cho các ứng dụng có hại, như vũ khí và giám sát, theo bản cập nhật "Nguyên tắc AI" của công ty.
Phiên bản trước của nguyên tắc AI của Google tuyên bố rằng công ty sẽ không theo đuổi "vũ khí hoặc các công nghệ khác có mục đích chính hoặc triển khai là gây ra hoặc trực tiếp tạo điều kiện cho việc gây thương tích cho con người" và "công nghệ thu thập hoặc sử dụng thông tin cho giám sát vi phạm các tiêu chuẩn được quốc tế chấp nhận". Những mục tiêu đó không còn được hiển thị trên trang web Nguyên tắc AI của Google nữa.
"Có một cuộc cạnh tranh toàn cầu đang diễn ra về vị trí dẫn đầu trong lĩnh vực AI trong bối cảnh địa chính trị ngày càng phức tạp", theo một bài đăng trên blog hôm thứ Ba do Demis Hassabis, Giám đốc điều hành của Google DeepMind, đồng tác giả. "Chúng tôi tin rằng các nền dân chủ nên dẫn đầu trong việc phát triển AI, được hướng dẫn bởi các giá trị cốt lõi như tự do, bình đẳng và tôn trọng nhân quyền."
Các nguyên tắc cập nhật của công ty phản ánh tham vọng ngày càng tăng của Google trong việc cung cấp công nghệ và dịch vụ AI của mình cho nhiều người dùng và khách hàng hơn, bao gồm cả chính phủ. Sự thay đổi này cũng phù hợp với những tuyên bố ngày càng tăng từ các nhà lãnh đạo Thung lũng Silicon về cuộc đua AI giữa Mỹ và Trung Quốc, với CTO Shyam Sankar của Palantir nói hôm thứ Hai rằng "đó sẽ là nỗ lực của cả quốc gia vượt xa Bộ Quốc phòng để chúng ta với tư cách là một quốc gia giành chiến thắng".
Phiên bản trước của các nguyên tắc AI của công ty cho biết Google sẽ "xem xét một loạt các yếu tố xã hội và kinh tế". Các nguyên tắc AI mới tuyên bố Google sẽ "tiến hành ở nơi chúng tôi tin rằng tổng lợi ích có thể có vượt xa đáng kể các rủi ro và bất lợi có thể thấy trước". Trong bài đăng trên blog hôm thứ Ba, Google cho biết họ sẽ "nhất quán với các nguyên tắc luật pháp quốc tế và nhân quyền được chấp nhận rộng rãi - luôn đánh giá công việc cụ thể bằng cách đánh giá cẩn thận xem lợi ích có vượt xa đáng kể các rủi ro tiềm ẩn hay không".
Các nguyên tắc AI mới được The Washington Post đưa tin lần đầu tiên vào hôm thứ Ba, trước thu nhập quý IV của Google. Kết quả của công ty đã không đáp ứng được kỳ vọng doanh thu của Phố Wall và khiến cổ phiếu giảm tới 9% trong giao dịch sau giờ làm việc.
Google đã thiết lập các nguyên tắc AI của mình vào năm 2018 sau khi từ chối gia hạn hợp đồng chính phủ có tên Project Maven, giúp chính phủ phân tích và diễn giải video máy bay không người lái bằng trí tuệ nhân tạo. Trước khi kết thúc thỏa thuận, vài nghìn nhân viên đã ký một bản kiến nghị phản đối hợp đồng và hàng chục người đã từ chức để phản đối sự tham gia của Google. Công ty cũng đã bỏ thầu cho hợp đồng đám mây trị giá 10 tỷ USD của Lầu Năm Góc một phần vì công ty "không chắc chắn" rằng nó sẽ phù hợp với các nguyên tắc AI của công ty, họ cho biết vào thời điểm đó.
Quảng cáo công nghệ AI của mình cho khách hàng, nhóm lãnh đạo của Pichai đã tích cực theo đuổi các hợp đồng của chính phủ liên bang, điều này đã gây ra căng thẳng gia tăng trong một số lĩnh vực trong lực lượng lao động thẳng thắn của Google. Bài đăng trên blog hôm thứ Ba của Google cho biết: “Chúng tôi tin rằng các công ty, chính phủ và tổ chức chia sẻ những giá trị này nên hợp tác với nhau để tạo ra AI bảo vệ con người, thúc đẩy tăng trưởng toàn cầu và hỗ trợ an ninh quốc gia”.
Năm ngoái, Google đã sa thải hơn 50 nhân viên sau một loạt cuộc biểu tình phản đối Project Nimbus, một hợp đồng chung trị giá 1,2 tỷ USD với Amazon cung cấp cho chính phủ và quân đội Israel các dịch vụ điện toán đám mây và AI. Giám đốc điều hành nhiều lần nói rằng hợp đồng không vi phạm bất kỳ "nguyên tắc AI" nào của công ty.
Tuy nhiên, các tài liệu và báo cáo cho thấy thỏa thuận của công ty cho phép cung cấp cho Israel các công cụ AI bao gồm phân loại hình ảnh, theo dõi đối tượng, cũng như các điều khoản cho các nhà sản xuất vũ khí thuộc sở hữu nhà nước. Thời báo New York đưa tin vào tháng 12 rằng bốn tháng trước khi ký kết Nimbus, các quan chức của Google bày tỏ lo ngại rằng việc ký kết thỏa thuận sẽ gây tổn hại đến danh tiếng của họ và "các dịch vụ của Google Cloud có thể bị sử dụng cho hoặc liên quan đến việc tạo điều kiện cho các vi phạm nhân quyền".
Trong khi đó, công ty đã đàn áp các cuộc thảo luận nội bộ xung quanh các xung đột địa chính trị như cuộc chiến ở Gaza. Google đã công bố các nguyên tắc cập nhật cho diễn đàn nội bộ Memegen của mình vào tháng 9, hạn chế hơn nữa các cuộc thảo luận chính trị về nội dung địa chính trị, quan hệ quốc tế, xung đột quân sự, hành động kinh tế và tranh chấp lãnh thổ, theo các tài liệu nội bộ mà CNBC xem xét vào thời điểm đó.
Phiên bản trước của nguyên tắc AI của Google tuyên bố rằng công ty sẽ không theo đuổi "vũ khí hoặc các công nghệ khác có mục đích chính hoặc triển khai là gây ra hoặc trực tiếp tạo điều kiện cho việc gây thương tích cho con người" và "công nghệ thu thập hoặc sử dụng thông tin cho giám sát vi phạm các tiêu chuẩn được quốc tế chấp nhận". Những mục tiêu đó không còn được hiển thị trên trang web Nguyên tắc AI của Google nữa.
"Có một cuộc cạnh tranh toàn cầu đang diễn ra về vị trí dẫn đầu trong lĩnh vực AI trong bối cảnh địa chính trị ngày càng phức tạp", theo một bài đăng trên blog hôm thứ Ba do Demis Hassabis, Giám đốc điều hành của Google DeepMind, đồng tác giả. "Chúng tôi tin rằng các nền dân chủ nên dẫn đầu trong việc phát triển AI, được hướng dẫn bởi các giá trị cốt lõi như tự do, bình đẳng và tôn trọng nhân quyền."
Các nguyên tắc cập nhật của công ty phản ánh tham vọng ngày càng tăng của Google trong việc cung cấp công nghệ và dịch vụ AI của mình cho nhiều người dùng và khách hàng hơn, bao gồm cả chính phủ. Sự thay đổi này cũng phù hợp với những tuyên bố ngày càng tăng từ các nhà lãnh đạo Thung lũng Silicon về cuộc đua AI giữa Mỹ và Trung Quốc, với CTO Shyam Sankar của Palantir nói hôm thứ Hai rằng "đó sẽ là nỗ lực của cả quốc gia vượt xa Bộ Quốc phòng để chúng ta với tư cách là một quốc gia giành chiến thắng".
Phiên bản trước của các nguyên tắc AI của công ty cho biết Google sẽ "xem xét một loạt các yếu tố xã hội và kinh tế". Các nguyên tắc AI mới tuyên bố Google sẽ "tiến hành ở nơi chúng tôi tin rằng tổng lợi ích có thể có vượt xa đáng kể các rủi ro và bất lợi có thể thấy trước". Trong bài đăng trên blog hôm thứ Ba, Google cho biết họ sẽ "nhất quán với các nguyên tắc luật pháp quốc tế và nhân quyền được chấp nhận rộng rãi - luôn đánh giá công việc cụ thể bằng cách đánh giá cẩn thận xem lợi ích có vượt xa đáng kể các rủi ro tiềm ẩn hay không".
Các nguyên tắc AI mới được The Washington Post đưa tin lần đầu tiên vào hôm thứ Ba, trước thu nhập quý IV của Google. Kết quả của công ty đã không đáp ứng được kỳ vọng doanh thu của Phố Wall và khiến cổ phiếu giảm tới 9% trong giao dịch sau giờ làm việc.
Google đã thiết lập các nguyên tắc AI của mình vào năm 2018 sau khi từ chối gia hạn hợp đồng chính phủ có tên Project Maven, giúp chính phủ phân tích và diễn giải video máy bay không người lái bằng trí tuệ nhân tạo. Trước khi kết thúc thỏa thuận, vài nghìn nhân viên đã ký một bản kiến nghị phản đối hợp đồng và hàng chục người đã từ chức để phản đối sự tham gia của Google. Công ty cũng đã bỏ thầu cho hợp đồng đám mây trị giá 10 tỷ USD của Lầu Năm Góc một phần vì công ty "không chắc chắn" rằng nó sẽ phù hợp với các nguyên tắc AI của công ty, họ cho biết vào thời điểm đó.
Quảng cáo công nghệ AI của mình cho khách hàng, nhóm lãnh đạo của Pichai đã tích cực theo đuổi các hợp đồng của chính phủ liên bang, điều này đã gây ra căng thẳng gia tăng trong một số lĩnh vực trong lực lượng lao động thẳng thắn của Google. Bài đăng trên blog hôm thứ Ba của Google cho biết: “Chúng tôi tin rằng các công ty, chính phủ và tổ chức chia sẻ những giá trị này nên hợp tác với nhau để tạo ra AI bảo vệ con người, thúc đẩy tăng trưởng toàn cầu và hỗ trợ an ninh quốc gia”.
Năm ngoái, Google đã sa thải hơn 50 nhân viên sau một loạt cuộc biểu tình phản đối Project Nimbus, một hợp đồng chung trị giá 1,2 tỷ USD với Amazon cung cấp cho chính phủ và quân đội Israel các dịch vụ điện toán đám mây và AI. Giám đốc điều hành nhiều lần nói rằng hợp đồng không vi phạm bất kỳ "nguyên tắc AI" nào của công ty.
Tuy nhiên, các tài liệu và báo cáo cho thấy thỏa thuận của công ty cho phép cung cấp cho Israel các công cụ AI bao gồm phân loại hình ảnh, theo dõi đối tượng, cũng như các điều khoản cho các nhà sản xuất vũ khí thuộc sở hữu nhà nước. Thời báo New York đưa tin vào tháng 12 rằng bốn tháng trước khi ký kết Nimbus, các quan chức của Google bày tỏ lo ngại rằng việc ký kết thỏa thuận sẽ gây tổn hại đến danh tiếng của họ và "các dịch vụ của Google Cloud có thể bị sử dụng cho hoặc liên quan đến việc tạo điều kiện cho các vi phạm nhân quyền".
Trong khi đó, công ty đã đàn áp các cuộc thảo luận nội bộ xung quanh các xung đột địa chính trị như cuộc chiến ở Gaza. Google đã công bố các nguyên tắc cập nhật cho diễn đàn nội bộ Memegen của mình vào tháng 9, hạn chế hơn nữa các cuộc thảo luận chính trị về nội dung địa chính trị, quan hệ quốc tế, xung đột quân sự, hành động kinh tế và tranh chấp lãnh thổ, theo các tài liệu nội bộ mà CNBC xem xét vào thời điểm đó.