VnReview
Hà Nội

Elon Musk kêu gọi cấm sản xuất các loại robot chiến đấu

Tỷ phú Elon Musk cùng với Mustafa Suleyman - Trưởng bộ phận AI của Google Deepmind là một trong số những người đang kêu gọi Liên Hiệp Quốc can thiệp vào việc phát triển và sản xuất các loại vũ khí tự động hoá, hay còn được gọi là các robot chiến đấu.

Theo ZDNet, 116 nhà sáng lập của các tập đoàn AI (trí tuệ nhân tạo) và sản xuất robot ở hơn 26 quốc gia trên khắp thế giới đã ký vào một bức thư gửi tới Liên Hiệp Quốc, trong đó đề nghị tổ chức này can thiệp để chấm dứt cuộc chạy đua vũ khí liên quan việc sản xuất các cỗ máy giết người - các robot chiến đấu - đang ngày một nóng lên trên toàn cầu.

Bức thư có một đoạn như sau: "Khi được phát triển, các cỗ máy vũ khí tự động này sẽ gây ra những cuộc xung đột vũ trang trên một phương diện rất rộng lớn, hơn những gì đang xảy ra ở thời điểm hiện tại, với một tốc độ nhanh hơn rất nhiều những gì con người có thể chịu đựng được. Chúng sẽ là những loại vũ khí kinh hoàng, những vũ khí mà bọn khủng bố có thể dùng để sát hại những người dân vô tội, hay có thể bị hack để hoạt động trái với những gì chúng được lập trình. Chúng ta không có nhiều thời gian để ngăn chặn điều này. Một khi chiếc hộp Pandora được mở ra, sẽ rất khó để đóng nó lại".

Đáp lại bức thư này, Hội thảo của Liên Hiệp Quốc về Công ước liên quan các loại vũ khí đã nhất trí phải có những thảo luận cụ thể về mối hiểm hoạ tiềm tàng do các loại vũ khí tự động như thiết bị bay không người lái (drone), xe tăng và các loại súng máy tự động. Theo dự kiến, nhóm các nhà sáng lập sẽ có cuộc họp với Liên Hiệp Quốc vào ngày 21/8, nhưng sau đó đã bị lui lại đến tháng 11 năm nay.

Bức thư ngỏ nêu trên đã cảnh báo rằng cuộc chạy đua vũ khí mới này sẽ mở ra "cuộc cách mạng lần thứ 3 trên chiến trường", sau sự phát minh ra thuốc súng và vũ khí hạt nhân. Do đó, vũ khí tự động hoá cần phải bị đưa vào danh sách các loại vũ khi bị cấm theo Công ước của Liên Hiệp Quốc về các loại vũ khí thông thường, trong số này còn bao gồm các loại vũ khí laze gây mù mắt.

"Hầu như mọi công nghệ có thể bị sử dụng vào mục đích tốt lẫn xấu, trí tuệ nhân tạo cũng vậy. Nó có thể giúp giải quyết nhiều vấn đề liên quan xã hội như: bất bình đẳng và nghèo đói, các thách thức về biến đổi khí hậu, hay các vấn đề về tài chính toàn cầu", Toby Walsh, giáo sư khoa học về AI tại Đại học New South Wales, một trong những người đưa ra ý tưởng về bức thư cho biết.

"Tuy nhiên, cũng loại công nghệ đó nếu được dùng vào vũ khí tự động sẽ dẫn đến công nghiệp hoá chiến tranh. Chúng ta cần phải đưa ra quyết định ngay hôm nay để chọn ra tương lai nào sẽ đến cho các thế hệ mai sau".

Ryan Gariepy, nhà sáng lập và CTO của Clearpath Robotics, người đầu tiên ký vào bức thư cho biết: "không như những vấn đề tiềm tàng khác của AI vẫn còn xa vời như khoa học viễn tưởng, các loại vũ khí tự động hoá đã và đang được phát triển trong thế giới thực".

Bức thư này được đưa ra tại buổi họp mở màn của Hội nghị về Trí tuệ nhân tạo ở Melbourne hôm thứ hai vừa rồi. Tuy đây không phải là lần đầu UN tiếp nhận khuyến nghị liên quan mối đe doạ của vũ khí tự động hoá, nhưng lại là lần đầu tiên các tập đoàn AI và Robotic cùng đồng lòng về vấn đề này.

Tại một bản báo cáo của Tổ chức giám sát nhân quyền vào năm 2015 có tiêu đề "Mind the Gap: The Lack of Accountability for Killer Robots" đã nêu chi tiết về việc nếu thiếu các điều luật cần thiết sẽ gây ra thương vong không thể quy trách nhiệm và không thể đo đếm được cho con người như thế nào. Bản báo cáo này nhấn mạnh rằng với các điều khoản luật pháp hiện tại, các lập trình viên, nhà phân phối, cũng như các cá nhân hoạt động trên lĩnh vực quân sự có thể hoàn toàn chối bỏ trách nhiệm về số thương vong gây ra trên chiến trường bởi các loại vũ khí tự động hoá.

Ngoài ra, báo cáo cũng cho rằng chưa có một khung pháp lý nào nêu rõ nếu có thì trách nhiệm phải thuộc về phía sản xuất hay phía sử dụng vũ khí, do đó không thể xác định việc bồi thường khi có vấn đề nghiêm trọng xảy ra.

Trước đó, vào năm 2015, Elon Musk, Stephen Hawking, Steve Wozniak (đồng sáng lập Apple) và hàng ngàn nhà nghiên cứu khác đã kêu gọi một lệnh cấm phát triển vũ khí tự động hoá bởi họ lo ngại rằng viễn cảnh các thiết bị bay không người lái có trang bị vũ khí được thiết kế để "tìm và diệt mục tiêu" sẽ không còn xa nữa (và thực tế thì chúng đã xuất hiện).

Khác với vũ khí nguyên tử, vũ khí tự động hoá có thể được sản xuất mà không cần các nguyên liệu đặc biệt nào, do đó chúng sẽ rất rẻ và có khả năng sản xuất hàng loạt, đem bán ra chợ đen, để rồi cuối cùng lọt vào tay các tổ chức khủng bố, những tên độc tài, hay những tay buôn vũ khí chiến tranh.

Tấn Minh

Chủ đề khác