Theo dõi giám sát người lao động là biên giới tiếp theo của AI quân sự

Spycraft được phát triển bởi các nhà thầu quốc phòng hiện đang được bán cho người sử dụng lao động để xác định tổ chức lao động. Các cơ quan quản lý phải tăng cường bảo vệ quyền riêng tư của người lao động.
RẤT KHÓ để tưởng tượng rằng bạn là mục tiêu của gián điệp, nhưng theo dõi nhân viên là biên giới tiếp theo của AI quân sự.
[IMG alt="
Theo dõi giám sát người lao động là biên giới tiếp theo của AI quân sự"]https://cdn.vnreview.vn/524288_6337...cd37cc1190c5f45a7630bae358d9&width=1080[/IMG]
Các kỹ thuật giám sát quen thuộc với các chế độ ******* chuyên chế giờ đây đã được tái sử dụng để nhắm mục tiêu vào người lao động Mỹ.
Trong thập kỷ qua, vài chục công ty đã xuất hiện để bán các đăng ký sử dụng lao động của bạn cho các dịch vụ như “thông tin tình báo nguồn mở”, “quản lý danh tiếng” và “đánh giá mối đe dọa nội bộ”—các công cụ ban đầu thường được các nhà thầu quốc phòng phát triển để sử dụng cho mục đích tình báo. Khi học sâu và các nguồn dữ liệu mới đã có sẵn trong vài năm qua, những công cụ này đã trở nên tinh vi hơn đáng kể. Với chúng, sếp của bạn có thể sử dụng các phân tích dữ liệu nâng cao để xác định tổ chức lao động, những kẻ rò rỉ thông tin nội bộ và những người chỉ trích công ty.
Không có gì bí mật khi tổ chức công đoàn đã được giám sát bởi các công ty lớn như Amazon. Nhưng việc mở rộng và bình thường hóa các công cụ để theo dõi người lao động đã thu hút rất ít bình luận, mặc dù nguồn gốc đáng ngại của chúng. Nếu chúng mạnh như chúng tuyên bố - hoặc thậm chí đang đi theo hướng đó - thì chúng ta cần một cuộc trò chuyện công khai về sự khôn ngoan của việc chuyển những vũ khí thông tin này vào tay tư nhân. AI cấp độ quân sự nhằm mục tiêu nhắm vào kẻ thù quốc gia của chúng ta, trên danh nghĩa nằm dưới sự kiểm soát của các chính phủ dân chủ được bầu, với các biện pháp bảo vệ nhằm ngăn chặn việc sử dụng nó chống lại công dân. Tất cả chúng ta nên quan tâm đến ý tưởng rằng các hệ thống tương tự giờ đây có thể được triển khai rộng rãi bởi bất kỳ ai có khả năng chi trả.
Ví dụ, FiveCast bắt đầu như một công ty khởi nghiệp chống khủng bố bán cho quân đội, nhưng nó đã chuyển các công cụ của mình cho các tập đoàn và cơ quan thực thi pháp luật, những công ty có thể sử dụng chúng để thu thập và phân tích tất cả các loại dữ liệu có sẵn công khai, bao gồm các bài đăng trên mạng xã hội của bạn . Thay vì chỉ đếm từ khóa, FiveCast khoe khoang rằng “bảo mật thương mại” và các dịch vụ khác của họ có thể xác định mạng người, đọc văn bản bên trong hình ảnh và thậm chí phát hiện các đối tượng, hình ảnh, logo, cảm xúc và khái niệm bên trong nội dung đa phương tiện. Công cụ “quản lý rủi ro chuỗi cung ứng” của nó nhằm mục đích dự báo những gián đoạn trong tương lai, chẳng hạn như các cuộc đình công, cho các tập đoàn.
Do đó, các công cụ phân tích mạng được phát triển để xác định các phần tử khủng bố có thể được sử dụng để xác định những người tổ chức lao động chủ chốt để người sử dụng lao động có thể sa thải họ một cách bất hợp pháp trước khi công đoàn được thành lập. Việc sử dụng tiêu chuẩn các công cụ này trong quá trình tuyển dụng có thể khiến người sử dụng lao động tránh thuê những người tổ chức như vậy ngay từ đầu. Và các chiến lược đánh giá rủi ro định lượng được hình thành để cảnh báo quốc gia chống lại các cuộc tấn công sắp xảy ra giờ đây có thể cung cấp thông tin cho các quyết định đầu tư, chẳng hạn như có nên thoái vốn khỏi các khu vực và nhà cung cấp được ước tính có năng lực tổ chức lao động cao hay không.
Không rõ là những công cụ này có thể đáp ứng được sự cường điệu của chúng hay không. Ví dụ: các phương pháp phân tích mạng chỉ định rủi ro theo liên kết, điều đó có nghĩa là bạn có thể bị gắn cờ chỉ vì theo dõi một trang hoặc tài khoản cụ thể. Các hệ thống này cũng có thể bị lừa bởi nội dung giả mạo, nội dung này dễ dàng được sản xuất trên quy mô lớn với AI thế hệ mới. Và một số công ty cung cấp các kỹ thuật máy học tinh vi, chẳng hạn như học sâu, để xác định nội dung có vẻ tức giận, được cho là báo hiệu những lời phàn nàn có thể dẫn đến hợp nhất, mặc dù tính năng phát hiện cảm xúc đã được chứng minh là sai lệch và dựa trên các giả định sai lầm.
Nhưng khả năng của các hệ thống này đang phát triển nhanh chóng. Các công ty đang quảng cáo rằng họ sẽ sớm đưa các công nghệ AI thế hệ tiếp theo vào các công cụ giám sát của mình. Các tính năng mới hứa hẹn sẽ làm cho việc khám phá các nguồn dữ liệu khác nhau trở nên dễ dàng hơn thông qua lời nhắc, nhưng mục tiêu cuối cùng dường như là một hệ thống giám sát phá vỡ liên minh, bán tự động, thường xuyên.
Hơn nữa, các dịch vụ đăng ký này vẫn hoạt động ngay cả khi chúng không hoạt động. Sẽ không có vấn đề gì nếu một nhân viên bị coi là kẻ gây rối thực sự không hài lòng; các giám đốc điều hành và bộ phận an ninh của công ty vẫn có thể hành động dựa trên lời buộc tội và trả đũa họ một cách bất công. Các đánh giá tổng hợp mơ hồ về “cảm xúc” của lực lượng lao động hoặc hình ảnh công khai của công ty hiện không thể xác minh là chính xác. Và sự hiện diện đơn thuần của các hệ thống này có thể có tác động đáng sợ đối với các hành vi được pháp luật bảo vệ, bao gồm cả việc tổ chức lao động.
Các tập đoàn cung cấp các dịch vụ này đang phát triển mạnh trong bối cảnh không rõ ràng và bỏ bê quy định. Phòng thủ giám sát nơi làm việc được làm bằng mô mỏng nhất. Những người xin lỗi trong ngành tuyên bố rằng phần mềm của họ, được bán để giúp người sử dụng lao động “hiểu môi trường liên đoàn lao động”, không phải là chống công đoàn. Thay vào đó, họ tự cho mình là bán “giám sát nhận thức của công ty” và đề cập một cách nổi bật rằng “mọi người Mỹ đều được luật pháp liên bang, tiểu bang và địa phương bảo vệ để làm việc trong điều kiện an toàn”. Rõ ràng đó không phải là lỗi của nhà sản xuất nếu người mua sử dụng phần mềm này để vi phạm quyền được tổ chức hoặc phản đối được pháp luật bảo vệ.
Các công ty giám sát cũng làm chệch hướng những lời chỉ trích bằng cách tuyên bố rằng họ chỉ sử dụng thông tin có sẵn công khai, như dữ liệu mạng xã hội và các bài báo. Ngay cả khi điều này là đúng, lập luận của họ bỏ qua hậu quả của việc sử dụng giám sát cấp độ quân sự hàng ngày đối với công dân của một xã hội tự do. Các công cụ tương tự theo dõi chuyển động của xe tăng Nga ở Ukraine không nên được trao cho người giám sát của bạn để theo dõi bạn. Các nhà cung cấp phần mềm tình báo dường như hy vọng rằng việc cho phép các ông chủ nhìn sâu vào cuộc sống của nhân viên của họ sẽ trở thành tiêu chuẩn đến mức các nhà tuyển dụng sẽ liên tục làm như vậy, như một biện pháp chủ động. Khi khả năng được cải thiện và chi phí thu thập và phân tích dữ liệu giảm mạnh, chúng ta hiện đang đối mặt với một tương lai trong đó bất kỳ nhà quản lý cấp trung nào cũng có thể huy động các nguồn lực của CIA của chính họ.
Loại ngành công nghiệp giám sát này về cơ bản là không tương thích với một nền dân chủ. Các công ty triển khai các công cụ như vậy phải buộc phải tiết lộ công khai việc sử dụng này để các luật hiện hành có thể được thi hành. Và các quy định mới là rất cần thiết. Năm ngoái, Ủy ban Quan hệ Lao động Quốc gia đã thông báo rằng họ sẽ tìm cách loại bỏ việc giám sát lao động “xâm phạm” và “lạm dụng”, một bước quan trọng. Ngoài ra, người lao động và công đoàn nên làm chứng trong các phiên điều trần lập pháp về quy định tương lai của AI và giám sát nơi làm việc. Chúng tôi cần các quy tắc cụ thể nêu rõ việc sử dụng AI, nguồn dữ liệu và phương pháp nào được cho phép và trong những điều kiện nào chúng có thể được sử dụng.
Những công nghệ này đã được bán và triển khai trên toàn cầu và được sử dụng để giám sát xuyên biên giới. Trong trường hợp tốt nhất, một cơ quan quản lý tích cực cần phải trở thành người dẫn đầu toàn cầu về AI có trách nhiệm và làm việc để thiết lập các tiêu chuẩn quốc tế cho các công nghệ tại nơi làm việc. Nếu không làm công việc này, các công ty đa quốc gia với chuỗi cung ứng toàn cầu sẽ dễ dàng coi thường hoặc khéo léo hóa các quốc gia cụ thể.
Tham khảo bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top