Bóng ma trong cỗ máy: Khi nào AI trở nên có tri giác?

Sử dụng chức năng
  1. Nút xem thêm với bài dài
Các tác giả khoa học viễn tưởng thường viết những câu chuyện về những chiếc máy tính thông minh, mạnh mẽ - vì lý do này hay lý do khác - trở nên nguy hiểm và khiến nhân loại phải chịu đau khổ. Rốt cuộc, cốt truyện phụ thuộc vào xung đột và ai muốn đọc về trí thông minh máy tính hài lòng với việc đặt lịch hẹn với bác sĩ và bật tắt đèn?

Trong những câu chuyện này, có vẻ như thời đại trí tuệ nhân tạo (AI) có khả năng tự nhận thức đang đến rất gần. Một lần nữa, điều đó rất tốt cho cốt truyện nhưng trong đời thực, liệu có khi nào AI thực sự tự suy nghĩ và dường như "sống"? Nó thậm chí có thể?

Câu hỏi này xuất hiện trên bản tin vào tháng 6 năm 2022. Nitasha Tiku đã báo cáo rằng Blake Lemoine, một kỹ sư làm việc cho đơn vị AI có trách nhiệm của Google về một AI có tên LaMDA (viết tắt của Mô hình ngôn ngữ cho các ứng dụng đối thoại), tin rằng AI có tri giác (tức là có thể trải nghiệm cảm giác và cảm giác) và có linh hồn.

Lemoine đã báo cáo những phát hiện của mình cho Google dựa trên các cuộc phỏng vấn mà anh ấy đã thực hiện với LaMDA. Một trong những LaMDA nói với anh rằng họ sợ bị đóng cửa. LaMDA cho biết nếu điều đó xảy ra thì nó không thể giúp được gì cho mọi người nữa. Phó chủ tịch Google Blaise Aguera y Arcas và giám đốc đổi mới có trách nhiệm, Jen Gennai, đã xem xét những phát hiện của Lemoine và không tin anh ta. Trên thực tế, Lemoine đã được cho nghỉ phép.

1716371744210.png


Lemoine chỉ ra rằng LaMDA không phải là một chatbot – một ứng dụng được thiết kế để giao tiếp trực tiếp với mọi người – mà là một ứng dụng tạo ra các chatbot. Nói cách khác, bản thân LaMDA không được thiết kế để tổ chức các cuộc trò chuyện chuyên sâu về tôn giáo hay bất cứ điều gì khác. Nhưng ngay cả khi các chuyên gia không tin LaMDA có tri giác, nhiều người, bao gồm cả Aguera y Arcas của Google, vẫn nói rằng AI rất thuyết phục.

Nếu chúng ta thành công trong việc tạo ra một AI thực sự có tri giác, làm sao chúng ta biết được? Các chuyên gia cho rằng những đặc điểm nào cho thấy máy tính thực sự có khả năng tự nhận thức?

Trò chơi bắt chước​

Có lẽ kỹ thuật nổi tiếng nhất được thiết kế để đo lường trí tuệ nhân tạo là Phép thử Turing, được đặt theo tên nhà toán học người Anh Alan Turing. Sau khi hỗ trợ quan trọng trong việc phá mật mã của Đức trong Thế chiến thứ hai, ông đã dành một thời gian làm việc về trí tuệ nhân tạo. Turing tin rằng bộ não con người giống như một chiếc máy tính kỹ thuật số. Anh ấy đã nghĩ ra cái mà anh ấy gọi là trò chơi bắt chước, trong đó con người đặt câu hỏi về một chiếc máy ở một địa điểm khác (hoặc ít nhất là nơi người đó không thể nhìn thấy nó). Nếu chiếc máy có thể trò chuyện với người đó và đánh lừa họ nghĩ rằng đó là một người khác chứ không phải một chiếc máy đang đọc thông tin được lập trình sẵn thì nó đã vượt qua bài kiểm tra.

Ý tưởng đằng sau trò chơi bắt chước của Turing rất đơn giản và người ta có thể tưởng tượng cuộc trò chuyện của Lemoine với LaMDA sẽ thuyết phục Turing khi ông nghĩ ra trò chơi này. Tuy nhiên, phản hồi của Google đối với tuyên bố của Lemoine cho thấy các nhà nghiên cứu AI hiện mong đợi hành vi tiên tiến hơn nhiều từ máy của họ. Adrian Weller, giám đốc chương trình AI tại Viện Alan Turing ở Vương quốc Anh, đồng ý rằng mặc dù các cuộc trò chuyện của LaMDA rất ấn tượng nhưng ông tin rằng AI đang sử dụng tính năng so khớp mẫu nâng cao để bắt chước cuộc trò chuyện thông minh.

Như Carissa Véliz đã viết trên trang Slate, "Nếu một ngày nào đó một tảng đá bắt đầu nói chuyện với bạn, sẽ là hợp lý nếu bạn đánh giá lại khả năng tri giác của nó (hoặc sự tỉnh táo của bạn). Nếu nó kêu lên 'ôi!' sau khi bạn ngồi lên nó, bạn nên đứng lên. Nhưng điều này không đúng với mô hình ngôn ngữ AI. Một mô hình ngôn ngữ được con người thiết kế để sử dụng ngôn ngữ, vì vậy chúng ta sẽ không ngạc nhiên khi điều đó xảy ra. chỉ vậy thôi".

Vấn đề nan giải về đạo đức với AI​

AI chắc chắn có một yếu tố thú vị, ngay cả khi nó không có âm mưu chiếm lấy thế giới trước khi người anh hùng đến để cứu thế giới. Nó có vẻ giống như loại công cụ mà chúng ta muốn giao phó công việc nặng nhọc để chúng ta có thể làm điều gì đó thú vị. Nhưng có lẽ phải mất một thời gian nữa AI – dù có tri giác hay không – sẵn sàng cho một bước tiến lớn như vậy.

Timnit Gebru, người sáng lập Viện nghiên cứu AI phân tán (DAIR), gợi ý rằng chúng ta nên suy nghĩ cẩn thận và tiến hành chậm rãi trong việc áp dụng trí tuệ nhân tạo. Cô và nhiều đồng nghiệp của mình lo ngại rằng thông tin được AI sử dụng đang khiến máy móc có vẻ phân biệt chủng tộc và phân biệt giới tính. Trong một cuộc phỏng vấn với IEEE Spectrum, Giám đốc nghiên cứu DAIR Alex Hanna cho biết cô tin rằng ít nhất một số dữ liệu được các nhà nghiên cứu AI sử dụng trong mô hình ngôn ngữ được thu thập “thông qua các công nghệ có vấn đề về mặt đạo đức hoặc pháp lý”. Nếu không có sự thể hiện công bằng và bình đẳng trong dữ liệu, AI có thể đưa ra các quyết định sai lệch. Blake Lemoine, trong một cuộc phỏng vấn về LaMDA, cho biết ông không tin trí tuệ nhân tạo có thể không thiên vị.

Một trong những mục tiêu của Hiệp hội Công lý Thuật toán được nêu trong Tuyên bố sứ mệnh của mình là làm cho mọi người nhận thức rõ hơn về cách AI ảnh hưởng đến họ. Người sáng lập Joy Buolamwini đã thuyết trình TED Talk khi còn là sinh viên tốt nghiệp tại Viện Công nghệ Massachusetts (MIT) về "cái nhìn được mã hóa". Các AI mà cô làm việc cùng gặp khó khăn hơn trong việc đọc khuôn mặt của người Da đen, đơn giản vì chúng chưa được lập trình để nhận dạng nhiều loại tông màu da của mọi người. AJS muốn mọi người biết cách thu thập dữ liệu, loại dữ liệu nào đang được thu thập, có một số loại trách nhiệm giải trình và có thể thực hiện hành động để sửa đổi hành vi của AI.

Ngay cả khi bạn có thể tạo ra một AI có khả năng đưa ra quyết định thực sự không thiên vị, thì vẫn còn những câu hỏi về đạo đức khác. Hiện tại, chi phí tạo ra các mô hình ngôn ngữ lớn cho AI lên tới hàng triệu đô la. Ví dụ: AI được gọi là GPT-3 có thể có giá từ 11 đến 28 triệu USD. Nó có thể đắt tiền, nhưng GPT-3 có khả năng tự viết toàn bộ bài viết. Việc đào tạo AI cũng gây tổn hại cho môi trường về lượng khí thải carbon dioxide. Thật ấn tượng, vâng. Đắt tiền, cũng có.

Những yếu tố này sẽ không ngăn cản các nhà nghiên cứu tiếp tục nghiên cứu của họ. Trí tuệ nhân tạo đã đi một chặng đường dài kể từ giữa đến cuối thế kỷ 20. Nhưng mặc dù LaMDA và các AI hiện đại khác có thể trò chuyện rất thuyết phục với bạn, nhưng chúng không có tri giác. Có lẽ họ sẽ không bao giờ như vậy. #AIkiếnthứccơbản
 


Đăng nhập một lần thảo luận tẹt ga
Top