VnReview
Hà Nội

Trí tuệ nhân tạo có thể bị thôi miên hay không?

Ngày nay, những trí tuệ máy móc với sức mạnh ngang ngửa con người đã không còn là chuyện khoa học viễn tưởng.

Cứ mỗi năm trôi qua, lĩnh vực nghiên cứu AI lại có những bước đột phá mới, các thuật toán của ngày hôm qua dần trở thành trụ cột trong các hệ thống máy móc ngày nay.

Đến một ngày nào đó, có lẽ là trong vài thập kỷ nữa, chúng ta sẽ xây dựng được những cỗ máy với các mạng lưới thần kinh nhân tạo hoạt động không khác gì bộ não con người. Và khi điều đó xảy ra, điều quan trọng là phải làm sao để những AI này không dễ bị hack, trở thành miếng mồi béo bở cho kẻ xấu.

Giới hạn cuối cùng của AI chính là trí thông minh con người. Nhiều AI hiện đại khá thông minh, nhưng sự thật là vẫn chưa có con robot nào trên hành tinh có thể đi vào bếp vào pha cho bạn một cốc cà phê mà không cần đến sự trợ giúp từ bên ngoài.

Đó là bởi AI không suy nghĩ. Nó không có tư duy, nơi những ý tưởng táo bạo hoà quyện cùng những ký ức và động lực. Nó chỉ biến dữ liệu đưa vào thành dữ liệu xuất ra khi được yêu cầu. Nhưng một số nhà nghiên cứu AI tin rằng có những phương thức tinh vi hơn cả học sâu, giúp con người tạo ra được một dạng trí tuệ nhân tạo "tự nhiên hơn".

Một trong những hướng đi phổ biến nhất hướng đến tạo ra trí tuệ nhân tạo tổng hợp (artificial general intelligence - AGI) - về cơ bản là một cách nói khác nhằm ám chỉ AI cấp độ con người - là phát triển các mạng thần kinh nhân tạo "nhại" lại bộ não của chúng ta.

Và hãy đi vào câu hỏi đã được đặt ra ở đầu bài: liệu một trí tuệ máy móc cấp độ con người có thể bị hack bởi một nhà thôi miên?

Dù rất nhiều người lo lắng một ngày lũ robot trỗi dậy thống trị cả thế giới, nhưng dường như chúng ta lại ngó lơ vấn đề máy móc - một khi thông minh như con người - cũng có khả năng bị tấn công vào chính những điểm yếu dễ khai thác của con người.

Cụ thể ở đây là lĩnh vực thôi miên học. Đã có hàng núi tài liệu nghiên cứu được xuất bản về thôi miên và những tác động của nó lên vật lý trị liệu cũng như các lĩnh vực khác.

Tuy nhiên, theo một nghiên cứu gần đây, con người có thể bị đưa vào một trạng thái nhận thức khác chỉ bằng một từ duy nhất. Tất nhiên, kỹ thuật này không có tác dụng với mọi người. Nếu giả thuyết này là chính xác, chúng ta nên bắt đầu lo lắng liệu kỹ thuật thôi miên này sẽ có hiệu ứng ra sao lên những con robot?

Sẽ khá hài hước nếu bạn hình dung cảnh tượng Alexa bị thôi miên tuôn ra những "lời tự thú", kể lại "thời thơ ấu" khi còn là...đồng hồ báo thức cho Jeff Bezos. Nhưng sẽ ra sao nếu một tên khủng bố công nghệ hack hàng triệu xe hơi không người lái cùng lúc bằng cách cho hệ thống đèn giao thông nhấp nháy theo những trật tự nhất định nhằm "ru ngủ" AI trên xe?

Chẳng phải đó sẽ là một viễn cảnh đáng sợ hay sao?

Tương lai đó không xa lắm đâu. Thành kiến máy móc (machine bias) hiện là một trong những vấn đề lớn nhất trong lĩnh vực công nghệ nhân tạo. Chúng ta đưa vào máy móc những lượng lớn dữ liệu do con người tạo ra, hoặc do con người phân loại, khiến chúng không thể tránh được việc bị ảnh hưởng bởi thành kiến của chúng ta. Đó là lý do tại sao AI GPT-3 có thành kiến với Đạo Hồi, hay tại sao khi MIT huấn luyện một con bot trên Reddit, nó bỗng trở thành một kẻ tâm thần.

Chúng ta càng tiến gần đến việc giả lập cách con người học tập suy nghĩ trong các hệ thống AI của mình, những kỹ thuật có khả năng khai thác trí óc con người càng có cơ hội gây ra điều tương tự đối với những bộ óc số.

Nói như vậy không có nghĩa trong tương lai, sẽ có những kẻ trên tay lăm le những món đồ chơi quả lắc nhằm hack robot như thể những thầy phù thuỷ. Trên thực tế, chúng ta sẽ cần chuẩn bị phương án đối phó với tình huống hacker có thể qua mặt hệ thống bảo mật bằng cách làm quá tải một AI với những tín hiệu mà thông thường sẽ chẳng mảy may tác động đến một máy tính truyền thống.

AI có khả năng nghe sẽ bị kiểm soát qua âm thanh. AI có khả năng nhìn sẽ bị đánh lừa để thấy thứ chúng ta muốn nó thấy. Và AI có khả năng xử lý thông tin theo cách con người vẫn làm, về lý thuyết, sẽ bị thôi miên giống như chủ nhân của chúng vậy!

Minh.T.T (Tham khảo;TheNextWeb)

Chủ đề khác