Vũ khí hóa trí tuệ nhân tạo

Phát triển công nghệ đã trở thành một cuộc đua không có điểm dừng. Trong cuộc cạnh tranh để dẫn đầu cuộc đua công nghệ mới nổi và chiến trường tương lai, trí tuệ nhân tạo (AI) đang nhanh chóng trở thành trung tâm của cuộc chơi quyền lực toàn cầu. Như đã thấy ở nhiều quốc gia, sự phát triển của hệ thống vũ khí tự trị (AWS) đang tiến triển nhanh chóng và sự gia tăng vũ khí hóa trí tuệ nhân tạo này dường như đã trở thành một sự phát triển gây bất ổn cao độ. Nó mang đến những thách thức an ninh phức tạp không chỉ cho các nhà hoạch định chính sách của mỗi quốc gia mà còn cho tương lai của nhân loại.
Thực tế ngày nay là trí tuệ nhân tạo đang dẫn chúng ta tới một chiến trường chiến tranh thuật toán mới không có ranh giới hoặc biên giới, có thể có hoặc không có sự tham gia của con người và sẽ không thể hiểu và có thể kiểm soát trên toàn bộ hệ sinh thái của con người trong không gian mạng, không gian địa lý và không gian (CGS). Do đó, chính ý tưởng vũ khí hóa trí tuệ nhân tạo, trong đó một hệ thống vũ khí, sau khi được kích hoạt trên CGS, có thể chọn và tấn công các mục tiêu là con người và không phải con người mà không cần sự can thiệp thêm của nhà thiết kế hoặc người vận hành con người, đang gây ra nỗi sợ hãi lớn.
Vũ khí hóa trí tuệ nhân tạo
Ý tưởng về một cỗ máy thông minh hoặc trí thông minh của máy móc có khả năng thực hiện bất kỳ nhiệm vụ chiến tranh dự kiến nào mà không có bất kỳ sự tham gia và can thiệp nào của con người - chỉ sử dụng sự tương tác của các cảm biến nhúng, lập trình máy tính và thuật toán trong môi trường và hệ sinh thái của con người - là trở thành hiện thực không thể bỏ qua được nữa.
Sự phát triển nhanh chóng của vũ khí hóa AI thể hiện rõ ràng trên toàn diện: điều hướng và sử dụng các phương tiện hải quân , máy bay và địa hình không người lái, tạo ra các ước tính thiệt hại tài sản thế chấp, triển khai các hệ thống tên lửa “bắn và quên” và sử dụng các hệ thống cố định để tự động hóa mọi thứ từ hệ thống nhân sự và bảo trì thiết bị cho đến việc triển khai máy bay không người lái giám sát , rô-bốt , v.v., đều là những ví dụ. Vì vậy, khi các thuật toán đang hỗ trợ ngày càng nhiều khía cạnh của chiến tranh, nó đưa chúng ta đến một câu hỏi quan trọng: việc sử dụng AI nào trong cuộc chiến ngày nay và tương lai nên được cho phép, hạn chế và cấm hoàn toàn?
Mặc dù Hệ thống vũ khí tự trị được cho là mang lại cơ hội giảm chi phí vận hành của hệ thống vũ khí - cụ thể là thông qua việc sử dụng nhân lực hiệu quả hơn - và có khả năng sẽ cho phép các hệ thống vũ khí đạt được tốc độ, độ chính xác, độ bền, độ chính xác, tầm với và khả năng phối hợp cao hơn trên chiến trường CGS, nhu cầu hiểu và đánh giá các vấn đề công nghệ, pháp lý, kinh tế, xã hội và an ninh vẫn còn.

Vai trò của lập trình viên và lập trình​

Giữa những thách thức bảo mật phức tạp này và vô số ẩn số đang đến với chúng ta, điều cơ bản cho sự an toàn và bảo mật của loài người là vai trò của các lập trình viên và lập trình cùng với tính toàn vẹn của chip bán dẫn. Lý do đằng sau điều này là các lập trình viên có thể định nghĩa và xác định bản chất của AWS (ít nhất là trong thời gian đầu) cho đến khi AI bắt đầu tự lập trình.
Tuy nhiên, nếu và khi một lập trình viên cố ý hoặc vô tình lập trình vũ khí tự động hoạt động vi phạm luật nhân đạo quốc tế (IHL) hiện tại và tương lai, thì con người sẽ kiểm soát việc vũ khí hóa AI như thế nào? Hơn nữa, vì AWS tập trung vào phần mềm nên trách nhiệm đối với lỗi và việc thao túng thiết kế và sử dụng hệ thống AWS nằm ở đâu? Điều đó đưa chúng ta đến trọng tâm của câu hỏi -- khi nào và nếu một hệ thống tự trị giết người, ai chịu trách nhiệm cho việc giết người, bất kể việc đó có chính đáng hay không?

Những thách thức về an ninh mạng​

Nói tóm lại, các thuật toán hoàn toàn không an toàn - chúng cũng không miễn dịch với lỗi, phần mềm độc hại, sai lệch và thao túng. Và, vì máy học sử dụng máy để đào tạo các máy khác, điều gì sẽ xảy ra nếu có phần mềm độc hại hoặc thao túng dữ liệu đào tạo? Mặc dù rủi ro bảo mật ở khắp mọi nơi, các thiết bị được kết nối làm tăng khả năng vi phạm an ninh mạng từ các địa điểm từ xa và vì mã không rõ ràng nên bảo mật rất phức tạp. Vì vậy, khi AI gây chiến với các AI khác (bất kể đó là an ninh mạng, an ninh địa lý hay an ninh không gian), những thách thức an ninh mạng đang diễn ra sẽ gây thêm rủi ro lớn cho tương lai của nhân loại và hệ sinh thái con người trong CGS.
Mặc dù có vẻ như các hệ thống vũ khí tự trị vẫn ở đây, nhưng câu hỏi mà tất cả chúng ta, cá nhân và tập thể, cần trả lời là trí tuệ nhân tạo sẽ thúc đẩy và xác định chiến lược của chúng ta vì sự sống còn và an ninh của con người, hay chúng ta sẽ?
Thừa nhận thực tế đang nổi lên này, Nhóm Rủi ro đã khởi xướng cuộc thảo luận rất cần thiết về hệ thống vũ khí tự trị với Markus Wagner, Tác giả đã xuất bản và Phó Giáo sư Luật tại Đại học Wollongong có trụ sở tại Úc.

Cái gì tiếp theo?​

Khi các quốc gia riêng lẻ và tập thể tăng tốc nỗ lực của họ để đạt được lợi thế cạnh tranh về khoa học và công nghệ, việc vũ khí hóa AI hơn nữa là không thể tránh khỏi. Do đó, vị trí của AWS sẽ thay đổi ý nghĩa của việc làm người và chắc chắn sẽ làm thay đổi các nguyên tắc cơ bản của an ninh cũng như tương lai của nhân loại và hòa bình.
Điều quan trọng là phải hiểu và đánh giá nếu không thể ngăn chặn cuộc chạy đua vũ trang tự trị thì điều gì có thể xảy ra. Đã đến lúc thừa nhận thực tế rằng chỉ vì công nghệ có thể cho phép AWS phát triển thành công, điều đó không có nghĩa là chúng ta nên làm như vậy. Có lẽ việc vũ khí hóa trí tuệ nhân tạo không phải là lợi ích của nhân loại! Đã đến lúc tạm dừng.
Bài viết gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top