OpenAI lặng lẽ xóa lệnh cấm ChatGPT cho "quân sự và chiến tranh"

Đoàn Thúy Hà

Editor
Thành viên BQT
Lầu Năm Góc đang để mắt đến công ty AI hàng đầu, tuần này đã nới lỏng lệnh cấm sử dụng quân sự.
[COLOR=rgb(17 17 17/var(--tw-text-opacity))]Tuần này OpenAI[/COLOR] đã lặng lẽ xóa ngôn ngữ cấm sử dụng công nghệ cho mục đích quân sự khỏi chính sách sử dụng, vốn nhằm quy định mức độ mạnh mẽ và phổ biến của các công cụ như ChatGPT.
OpenAI lặng lẽ xóa lệnh cấm ChatGPT cho quân sự và chiến tranh
Tính đến ngày 10/1, [COLOR=rgb(102 83 255/var(--tw-text-opacity))]trang “chính sách sử dụng” của OpenAI [/COLOR]bao gồm lệnh cấm “hoạt động có nguy cơ gây tổn hại về thể chất cao, bao gồm “phát triển vũ khí” và “quân sự và chiến tranh”. Lệnh cấm được diễn đạt rõ ràng đối với các ứng dụng quân sự dường như sẽ loại trừ bất kỳ việc sử dụng chính thức và cực kỳ sinh lợi nào của Bộ Quốc phòng hoặc bất kỳ quân đội tiểu bang nào khác. Chính [COLOR=rgb(102 83 255/var(--tw-text-opacity))]sách mới [/COLOR]vẫn giữ lệnh cấm “sử dụng dịch vụ của chúng tôi để làm hại bản thân hoặc người khác” và đưa ra ví dụ “phát triển hoặc sử dụng vũ khí”, nhưng lệnh cấm chung đối với việc sử dụng “quân sự và chiến tranh” đã biến mất.
Việc chỉnh sửa không báo trước là một phần trong quá trình viết lại chính trang chính sách mà công ty cho biết là nhằm mục đích làm cho tài liệu “rõ ràng hơn” và “dễ đọc hơn” và bao gồm nhiều thay đổi quan trọng khác về ngôn ngữ và định dạng.
“Chúng tôi mong muốn tạo ra một bộ nguyên tắc phổ quát vừa dễ nhớ vừa dễ áp dụng, đặc biệt là khi các công cụ của chúng tôi hiện được người dùng hàng ngày sử dụng trên toàn cầu, những người hiện cũng có thể xây dựng GPT”, người phát ngôn OpenAI, Niko Felix, cho biết trong email gửi tới The Intercept. “Một nguyên tắc như 'Không làm hại người khác' tuy rộng nhưng dễ nắm bắt và phù hợp trong nhiều bối cảnh. Ngoài ra, chúng tôi đặc biệt trích dẫn vũ khí và thương tích cho người khác làm ví dụ rõ ràng”.
Felix từ chối cho biết liệu lệnh cấm “gây tổn hại” mơ hồ có bao gồm tất cả các hoạt động sử dụng quân sự hay không, ông viết: “Bất kỳ việc sử dụng công nghệ nào của chúng tôi, kể cả bởi quân đội, để '[phát triển] hoặc [sử dụng] vũ khí, [làm bị thương] người khác hoặc [phá hủy] tài sản hoặc [tham gia] vào các hoạt động trái phép vi phạm tính bảo mật của bất kỳ dịch vụ hoặc hệ thống nào' đều không được phép”.
Heidy Khlaaf, giám đốc kỹ thuật công ty an ninh mạng Trail of Bits và là chuyên gia về học máy và an toàn hệ thống tự động, cho biết: “OpenAI nhận thức rõ về rủi ro và tác hại có thể phát sinh do việc sử dụng công nghệ và dịch vụ trong các ứng dụng quân sự”, trích dẫn một bài báo năm 2022. Cô là đồng tác giả với các nhà nghiên cứu OpenAI đã cảnh báo cụ thể về nguy cơ sử dụng trong quân sự. Khlaaf nói thêm rằng chính sách mới dường như nhấn mạnh tính hợp pháp hơn là an toàn. “Có sự khác biệt rõ ràng giữa hai chính sách, vì chính sách trước nêu rõ rằng việc phát triển vũ khí, quân sự và chiến tranh là không được phép, trong khi chính sách sau nhấn mạnh đến tính linh hoạt và tuân thủ luật pháp”. “Việc phát triển vũ khí và thực hiện các hoạt động liên quan đến quân sự và chiến tranh là hợp pháp ở nhiều mức độ khác nhau. Những tác động tiềm tàng đối với sự an toàn của AI là rất đáng kể. Với các trường hợp nổi tiếng về sự thiên vị và ảo giác hiện diện trong Mô hình Ngôn ngữ Lớn (LLM) và sự thiếu chính xác tổng thể của chúng, việc sử dụng chúng trong chiến tranh quân sự chỉ có thể dẫn đến các hoạt động không chính xác và thiên vị, có khả năng làm trầm trọng thêm tổn hại và thương vong cho dân thường”.
Hậu quả thực tế của chính sách này là không rõ ràng. Năm ngoái, The Intercept đưa tin rằng OpenAI không sẵn sàng cho biết liệu họ có thực thi lệnh cấm “quân sự và chiến tranh” rõ ràng hay không trước sự quan tâm ngày càng tăng từ Lầu Năm Góc và cộng đồng tình báo Hoa Kỳ.
Sarah Myers West, giám đốc điều hành AI Now cho biết: “Với việc sử dụng hệ thống AI để nhắm mục tiêu vào dân thường ở Gaza, đây là thời điểm đáng chú ý để đưa ra quyết định loại bỏ các từ 'quân sự và chiến tranh' khỏi chính sách sử dụng được phép của OpenAI”. Institute và là cựu nhà phân tích chính sách AI tại Ủy ban Thương mại Liên bang. “Ngôn ngữ trong chính sách vẫn còn mơ hồ và đặt ra câu hỏi về cách OpenAI dự định tiếp cận việc thực thi”.
Mặc dù không có gì OpenAI cung cấp ngày nay có thể được sử dụng một cách hợp lý để trực tiếp giết ai đó, về mặt quân sự hay cách khác - ChatGPT không thể điều khiển máy bay không người lái hoặc bắn tên lửa - bất kỳ quân đội nào cũng có nhiệm vụ giết người hoặc ít nhất là duy trì khả năng giết người. Có bất kỳ nhiệm vụ liền kề nào mà LLM như ChatGPT có thể thực hiện, chẳng hạn như viết mã hoặc xử lý hoạt động mua sắm đơn đặt hàng. Đánh giá về các bot tùy chỉnh hỗ trợ ChatGPT do OpenAI cung cấp cho thấy quân nhân Hoa Kỳ đã sẵn sàngMở trong tab mới sử dụng công nghệ để đẩy nhanh thủ tục giấy tờ. Cơ quan Tình báo Không gian Địa lý Quốc gia, cơ quan trực tiếp hỗ trợ các nỗ lực chiến đấu của Hoa Kỳ, đã công khai suy đoán về việc sử dụng ChatGPT để hỗ trợ các nhà phân tích con người. Ngay cả khi các công cụ OpenAI được các bộ phận của lực lượng quân sự triển khai cho các mục đích không trực tiếp mang tính bạo lực, chúng vẫn sẽ hỗ trợ một tổ chức có mục đích chính là gây chết người.
Các chuyên gia đã xem xét các thay đổi chính sách theo yêu cầu của The Intercept cho biết OpenAI dường như đang âm thầm làm suy yếu lập trường chống lại hoạt động kinh doanh với quân đội. Lucy Suchman, giáo sư danh dự khoa học và công nghệ tại Đại học Lancaster cho biết: “Tôi có thể tưởng tượng rằng việc chuyển từ 'quân sự và chiến tranh' sang 'vũ khí' sẽ mở ra không gian cho OpenAI hỗ trợ các cơ sở hạ tầng hoạt động miễn là ứng dụng đó không liên quan trực tiếp đến việc phát triển vũ khí được xác định một cách hẹp hòi. Tất nhiên, tôi nghĩ ý tưởng rằng bạn có thể đóng góp cho các nền tảng chiến đấu trong khi tuyên bố không tham gia vào việc phát triển hoặc sử dụng vũ khí sẽ là không trung thực, loại bỏ vũ khí khỏi hệ thống kỹ thuật xã hội – bao gồm cả cơ sở hạ tầng chỉ huy và kiểm soát – mà nó là một phần”. Suchman, một học giả về trí tuệ nhân tạo từ những năm 1970 và là thành viên của Ủy ban Quốc tế về Kiểm soát Vũ khí Robot, nói thêm: “Có vẻ hợp lý khi tài liệu chính sách mới né tránh câu hỏi về hợp đồng quân sự và các hoạt động chiến đấu bằng cách tập trung đặc biệt vào vũ khí”.
Suchman và Myers West đều chỉ ra mối quan hệ hợp tác chặt chẽ của OpenAI với Microsoft, một nhà thầu quốc phòng lớn, cho đến nay đã đầu tư 13 tỷ USD vào nhà sản xuất LLM và bán lại các công cụ phần mềm.
Những thay đổi này xảy ra khi quân đội trên khắp thế giới mong muốn kết hợp các kỹ thuật học máy để đạt được lợi thế; Lầu Năm Góc vẫn đang thăm dò cách sử dụng ChatGPT hoặc các mô hình ngôn ngữ lớn khác, một loại công cụ phần mềm có thể tạo ra các đầu ra văn bản phức tạp một cách nhanh chóng và khéo léo. LLM được đào tạo về khối lượng sách, bài báo khổng lồ và dữ liệu web khác để ước chừng phản ứng của con người đối vớicâu lệnh. Mặc dù kết quả đầu ra của LLM như ChatGPT thường cực kỳ thuyết phục, nhưng chúng được tối ưu hóa để mang lại sự mạch lạc hơn là nắm chắc thực tế và thường mắc phải cái gọi là ảo giác khiến độ chính xác và tính xác thực trở thành vấn đề. Tuy nhiên, khả năng LLM nhanh chóng nhập văn bản và phân tích đầu ra nhanh chóng - hoặc ít nhất là mô phỏng phân tích - khiến chúng trở nên phù hợp một cách tự nhiên đối với Bộ Quốc phòng chứa đầy dữ liệu.
Trong khi một số người trong giới lãnh đạo quân sự Hoa Kỳ bày tỏ lo ngại về xu hướng LLM chèn các lỗi thực tế rõ ràng hoặc các thông tin sai lệch khác, cũng như các rủi ro bảo mật có thể xảy ra khi sử dụng ChatGPT để phân tích dữ liệu mật hoặc dữ liệu nhạy cảm, Lầu Năm Góc nhìn chung vẫn mong muốn áp dụng các công cụ trí tuệ nhân tạo. Trong bài phát biểu vào tháng 11, Thứ trưởng Bộ Quốc phòng Kathleen Hicks đã tuyên bố rằng AI là “một phần quan trọng trong cách tiếp cận đổi mới toàn diện, lấy chiến binh làm trung tâm mà Bộ trưởng [Lloyd] Austin và tôi đã thúc đẩy từ ngày đầu tiên,” mặc dù cô ấy cảnh báo rằng hầu hết các dịch vụ hiện tại “chưa đủ trưởng thành về mặt kỹ thuật để tuân thủ với các nguyên tắc AI đạo đức”.
Năm ngoái, Kimberly Sablon, giám đốc chính Lầu Năm Góc về AI đáng tin cậy và quyền tự chủ, đã nóiMở trong tab mớimột hội nghị ở Hawaii rằng “ở đây có rất nhiều điều tốt về cách chúng tôi có thể sử dụng các mô hình ngôn ngữ lớn như [ChatGPT] để phá vỡ các chức năng quan trọng trong toàn bộ bộ phận”.
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top