VnReview
Hà Nội

Tranh cãi về việc sử dụng trí tuệ nhân tạo trong quân đội

Cuộc tranh cãi về việc sử dụng trí tuệ nhân tạo để điều khiển các loại vũ khí giết người phức tạp hơn rất nhiều.

Tuần trước, hàng ngàn nhà khoa học và chuyên gia công nghệ đã ký vào lá thư ngỏ kêu gọi cấm các loại vũ khí giết người do các cỗ máy trí tuệ nhân tạo điều khiển. Họ lo ngại trí tuệ nhân tạo (AI) có thể bị lợi dụng giúp các loại máy móc giết người hiệu quả hơn nhưng lại ít trách nhiệm hơn. Tuy vậy, các chuyên gia vẫn đang có nhiều tranh cãi xung quanh vấn đề robot quân sự giết người.

Bức thư đó đã được trình bày tại Hội nghị liên quốc tế về Trí tuệ nhân tạo diễn ra ở Buenos Aires, Argentina, và nhiều nhà nghiên cứu AI hàng đầu cũng như các nhà khoa học, doanh nhân nổi tiếng, gồm cả Elon Musk, Stephen Hawking, và Steve Wozniak đã tham gia ký tên. Bức thư nêu rõ:

"Công nghệ AI đã đạt đến điểm mà khả năng những hệ thống đó sẽ được triển khai trong vòng mấy năm nữa, chứ không phải mấy thập kỷ nữa, và rủi ro rất cao: các loại vũ khí tự động được miêu tả như là cuộc cách mạng thứ ba trong chiến tranh, sau thuốc súng và vũ khí hạt nhân".

Trí tuệ nhân tạo đã có sự phát triển nhanh chóng những găn gần đây, đặc biệt là trong lĩnh vực máy học (machine learning) – liên quan đến việc dạy cho máy tính nhận ra những mẫu phức tạp trong một khối lượng dữ liệu khổng lồ. Điều này đang dẫn tới các câu hỏi mang tính đạo đức, về những áp dụng thực tế của công nghệ này.

Trong khi đó, công nghệ quân sự phát triển đã cho phép có những hệ thống được điều khiển từ xa, chẳng hạn như sử dụng máy bay không người lái hoặc robot gỡ bom.

Vũ khí giết người tự động vốn là mối lo ngại của các nhà khoa học, chuyên gia quân sự và chính sách. Năm 2012, Bộ Quốc phòng Mỹ đã ra lệnh cấm phát triển và sử dụng các loại vũ khí "tự động và bán tự động" trong vòng 10 năm. Đầu năm nay, Liên hợp quốc đã tổ chức cuộc họp để thảo luận về vũ khí giết người tự động, và khả năng sẽ ra lệnh cấm.

Nhưng trong khi máy bay không người lái hoặc robot quân sự có thể trở nên tự động hơn nữa, một số nói rằng ý tưởng máy móc hoàn toàn độc lập có thể thực hiện các nhiệm vụ giết người mà không cần đến sự can thiệp của con người lại càng huyền ảo hơn. Tuy nhiên, lĩnh vực trí tuệ nhân tạo vẫn đang phải đối mặt với nhiều thách thức lớn, vẫn chưa rõ khi nào vũ khí tự động hoàn toàn mới thực sự được sử dụng.

"Chúng tôi đã tiến vào những nấc thang mới trong trí tuệ nhân tạo", Patrick Lin, giáo sư triết học tại trường Đại học Bách khoa California, nói. "Nhiều người vẫn rất hoài nghi về khả năng của cái gọi là tự động hoàn toàn. Không ai có thể đoán trước tương lai".

Tuy vậy, có một vấn đề khá tranh cãi, đó là trong một số trường hợp, vũ khí tự động có thể giúp giảm những thương vong không mong muốn, bởi vì chúng thường ít gây ra lỗi, hay ít bị mệt mỏi, bị cảm xúc chi phối như với con người.

Max Tegmark, một nhà vật lý học của Viện Công nghệ Massachussetts (MIT) và là thành viên sáng lập Viện Tương lai cuộc sống, nói rằng ý tưởng đạo đức của vũ khí tự động hoàn toàn không liên quan. "Tôi nghĩ nó không liên quan", ông nói. "Mọi người đang bỏ lỡ một điểm lớn, đó là điều gì sẽ xảy ra nếu một ai đó, quốc gia nào đó bắt đầu cuộc đua vũ trang AI. Nếu giả sử chỉ có Mỹ xây dựng những vũ khí đó, và số các cuộc xung đột vẫn như thế, thì lúc này mới liên quan đến đạo đức của vũ khí tự động".

Viện Tương lai cuộc sống đặt ra cảnh báo lớn hơn về rủi ro lâu dài của việc tự do hóa trí tuệ nhân tạo, cảnh báo nó có thể gây ra những nguy hiểm nghiêm trọng trong tương lai.

"Đây hoàn toàn là vấn đề khác", Russell nói. "Mặc dù có sự liên kết, nếu ai đó lo ngại hệ thống AI bị mất kiểm soát khi chúng trở nên thông minh hơn, có thể cũng không phải là ý tưởng tốt khi để các hệ thống quốc phòng của chúng ta ứng dụng chúng".

Một số chuyên gia cũng cho rằng máy tính không cần phải có trí tuệ nhân tạo, vì nó sẽ gây ra những rũi ro nghiêm trọng đối với các thị trường tài chính hoặc hệ thống không lưu.

Nhìn chung, khái niệm về robot giết người vẫn còn nhiều tranh cãi, và các chuyên gia cũng cho rằng vấn đề vũ khí tự động xứng đáng phải có một cuộc tranh luận nghiêm túc và sáng sủa hơn.

Hoàng Lan

Theo Technology Review

Chủ đề khác