Dũng Đỗ
Writer
Alphabet, công ty mẹ của Google, đã âm thầm cập nhật nguyên tắc đạo đức AI, loại bỏ cam kết trước đó về việc không sử dụng AI để phát triển vũ khí, công cụ giám sát và các công nghệ có khả năng gây hại. Động thái này đã vấp phải sự phản ứng gay gắt từ chính nhân viên Google, làm dấy lên lo ngại về việc công ty đang "đi vào vết xe đổ" của quá khứ.
Thay đổi trong nguyên tắc đạo đức AI của Google
Trong bản cập nhật nguyên tắc đạo đức AI mới, Google đã xóa bỏ điều khoản cam kết "sẽ không sử dụng AI để chế tạo vũ khí, công cụ giám sát và các công nghệ gây ra hoặc có khả năng gây ra tác hại". Thay vào đó, công ty đưa ra tuyên bố chung chung hơn về việc hợp tác với chính phủ vì lợi ích "an ninh quốc gia".
Phản ứng từ nội bộ Google
Theo Business Insider, nhiều nhân viên Google đã bày tỏ sự thất vọng và lo ngại trên Memegen, kênh meme nội bộ của công ty. Một số meme chế giễu CEO Sundar Pichai, đặt câu hỏi về việc Google từ bỏ lệnh cấm sử dụng AI trong vũ khí và giám sát, thậm chí còn đặt nghi vấn: "Chúng ta có đang là kẻ xấu không?", châm biếm tuyên bố một thời “Don’t be Evil” (không làm kẻ xấu) của chính Google nhưng cũng đã bị hãng loại bỏ vào năm 2015.
Dù những bình luận này chỉ phản ánh một phần nhỏ trong số hơn 180.000 nhân viên Google, nó cho thấy sự bất đồng và lo ngại trong nội bộ công ty trước quyết định mới.
Lời giải thích từ lãnh đạo Google DeepMind
Trong bài viết trên blog ngày 5/2, Demis Hassabis, Giám đốc Google DeepMind, và James Manyika, Phó chủ tịch cấp cao phụ trách công nghệ và xã hội của Google, giải thích rằng những thay đổi diễn ra "trong bối cảnh địa chính trị ngày càng phức tạp" và nhấn mạnh tầm quan trọng của việc doanh nghiệp và chính phủ hợp tác vì lợi ích "an ninh quốc gia".
Ông Demis khẳng định: "Chúng tôi tin các nền dân chủ nên dẫn đầu trong phát triển AI, được dẫn dắt bởi các giá trị cốt lõi như tự do, bình đẳng và tôn trọng nhân quyền. Chúng tôi tin các doanh nghiệp, chính phủ và tổ chức nên cùng nhau tạo ra AI bảo vệ con người, thúc đẩy tăng trưởng toàn cầu và hỗ trợ an ninh quốc gia".
Vết xe đổ từ năm 2018?
Năm 2018, Google đã từng vấp phải làn sóng phản đối mạnh mẽ từ nhân viên khi tham gia chương trình AI của Lầu Năm Góc cho mục đích chiến tranh. Sau đó, công ty đã phải hủy hợp đồng và đưa ra nguyên tắc AI, cam kết không theo đuổi các lĩnh vực như vũ khí và công cụ giám sát. Tuy nhiên, bài đăng này hiện đã được cập nhật, loại bỏ cam kết trên và thay bằng liên kết đến tuyên bố mới nhất.
Chi tiêu "khủng" cho AI và áp lực từ cổ đông
Trong báo cáo tài chính quý IV/2024, Google cho biết doanh thu tăng 12% lên 96,5 tỷ USD. Tuy nhiên, công ty cũng có kế hoạch chi 75 tỷ USD trong năm 2025, chủ yếu liên quan đến AI. Thông tin này khiến cổ phiếu của Alphabet giảm 8%, cho thấy áp lực từ các cổ đông về việc Google cần sớm biến các khoản đầu tư AI thành lợi nhuận.
Việc Google thay đổi nguyên tắc đạo đức AI, dỡ bỏ cam kết không tham gia vào lĩnh vực vũ khí và giám sát, đang gây ra nhiều tranh cãi và lo ngại, không chỉ trong nội bộ công ty mà còn trong cộng đồng công nghệ và xã hội. Quyết định này đặt ra câu hỏi về trách nhiệm đạo đức của các công ty công nghệ lớn trong việc phát triển và ứng dụng AI, đặc biệt trong các lĩnh vực nhạy cảm như quân sự và an ninh quốc gia.
![Google-AI-drone-weapon-1460x960_jpg_75.jpg Google-AI-drone-weapon-1460x960_jpg_75.jpg](https://vnrv.s3.hn-1.cloud.cmctelecom.vn/data/attachments/35/35272-5e761d1f03d6f0aca5b6f61a066e864e.jpg)
Thay đổi trong nguyên tắc đạo đức AI của Google
Trong bản cập nhật nguyên tắc đạo đức AI mới, Google đã xóa bỏ điều khoản cam kết "sẽ không sử dụng AI để chế tạo vũ khí, công cụ giám sát và các công nghệ gây ra hoặc có khả năng gây ra tác hại". Thay vào đó, công ty đưa ra tuyên bố chung chung hơn về việc hợp tác với chính phủ vì lợi ích "an ninh quốc gia".
Phản ứng từ nội bộ Google
Theo Business Insider, nhiều nhân viên Google đã bày tỏ sự thất vọng và lo ngại trên Memegen, kênh meme nội bộ của công ty. Một số meme chế giễu CEO Sundar Pichai, đặt câu hỏi về việc Google từ bỏ lệnh cấm sử dụng AI trong vũ khí và giám sát, thậm chí còn đặt nghi vấn: "Chúng ta có đang là kẻ xấu không?", châm biếm tuyên bố một thời “Don’t be Evil” (không làm kẻ xấu) của chính Google nhưng cũng đã bị hãng loại bỏ vào năm 2015.
Dù những bình luận này chỉ phản ánh một phần nhỏ trong số hơn 180.000 nhân viên Google, nó cho thấy sự bất đồng và lo ngại trong nội bộ công ty trước quyết định mới.
![photo-0-15267004234971421717203_jpg_75(2).jpg photo-0-15267004234971421717203_jpg_75(2).jpg](https://vnrv.s3.hn-1.cloud.cmctelecom.vn/data/attachments/35/35273-d24efe85b6dd7da7afa585a37c56f73d.jpg)
Lời giải thích từ lãnh đạo Google DeepMind
Trong bài viết trên blog ngày 5/2, Demis Hassabis, Giám đốc Google DeepMind, và James Manyika, Phó chủ tịch cấp cao phụ trách công nghệ và xã hội của Google, giải thích rằng những thay đổi diễn ra "trong bối cảnh địa chính trị ngày càng phức tạp" và nhấn mạnh tầm quan trọng của việc doanh nghiệp và chính phủ hợp tác vì lợi ích "an ninh quốc gia".
Ông Demis khẳng định: "Chúng tôi tin các nền dân chủ nên dẫn đầu trong phát triển AI, được dẫn dắt bởi các giá trị cốt lõi như tự do, bình đẳng và tôn trọng nhân quyền. Chúng tôi tin các doanh nghiệp, chính phủ và tổ chức nên cùng nhau tạo ra AI bảo vệ con người, thúc đẩy tăng trưởng toàn cầu và hỗ trợ an ninh quốc gia".
Vết xe đổ từ năm 2018?
Năm 2018, Google đã từng vấp phải làn sóng phản đối mạnh mẽ từ nhân viên khi tham gia chương trình AI của Lầu Năm Góc cho mục đích chiến tranh. Sau đó, công ty đã phải hủy hợp đồng và đưa ra nguyên tắc AI, cam kết không theo đuổi các lĩnh vực như vũ khí và công cụ giám sát. Tuy nhiên, bài đăng này hiện đã được cập nhật, loại bỏ cam kết trên và thay bằng liên kết đến tuyên bố mới nhất.
Chi tiêu "khủng" cho AI và áp lực từ cổ đông
Trong báo cáo tài chính quý IV/2024, Google cho biết doanh thu tăng 12% lên 96,5 tỷ USD. Tuy nhiên, công ty cũng có kế hoạch chi 75 tỷ USD trong năm 2025, chủ yếu liên quan đến AI. Thông tin này khiến cổ phiếu của Alphabet giảm 8%, cho thấy áp lực từ các cổ đông về việc Google cần sớm biến các khoản đầu tư AI thành lợi nhuận.
Việc Google thay đổi nguyên tắc đạo đức AI, dỡ bỏ cam kết không tham gia vào lĩnh vực vũ khí và giám sát, đang gây ra nhiều tranh cãi và lo ngại, không chỉ trong nội bộ công ty mà còn trong cộng đồng công nghệ và xã hội. Quyết định này đặt ra câu hỏi về trách nhiệm đạo đức của các công ty công nghệ lớn trong việc phát triển và ứng dụng AI, đặc biệt trong các lĩnh vực nhạy cảm như quân sự và an ninh quốc gia.