Thoại Viết Hoàng
Writer
>> Giám đốc OpenAI lo ngại về việc AI được sử dụng để thỏa hiệp các cuộc bầu cử
>> Trí tuệ nhân tạo AI và ChatGPT sẽ ảnh hưởng như thế nào đến công việc ở tất cả các cấp độ chuyên nghiệp
>> Microsoft cho biết AI mới có dấu hiệu suy luận của con người
Lý thuyết về điểm kỳ dị công nghệ dự đoán một thời điểm con người mất kiểm soát đối với các phát minh công nghệ và những phát triển tiếp theo do sự trỗi dậy của ý thức máy móc và kết quả là trí thông minh vượt trội. Nói tóm lại, việc đạt đến giai đoạn kỳ dị tạo thành mối đe dọa lớn nhất của trí tuệ nhân tạo (AI) đối với nhân loại. Thật không may, điểm kỳ dị AI đã được tiến hành.
AI sẽ hiệu quả không chỉ khi máy móc có thể làm những gì con người làm (sao chép), mà còn khi chúng có thể làm điều đó tốt hơn và không có sự giám sát của con người (thích ứng). Học tăng cường (dữ liệu được nhận dạng dẫn đến kết quả dự đoán) và thuật toán học có giám sát (dữ liệu được gắn nhãn dẫn đến kết quả dự đoán) rất quan trọng đối với sự phát triển của người máy, trợ lý kỹ thuật số và công cụ tìm kiếm. Nhưng tương lai của nhiều ngành công nghiệp và khám phá khoa học phụ thuộc nhiều hơn vào sự phát triển của các thuật toán học tập không giám sát (dữ liệu không được gắn nhãn dẫn đến kết quả được cải thiện), bao gồm xe tự lái, chẩn đoán y tế không xâm lấn, xây dựng không gian có hỗ trợ, thiết kế vũ khí tự trị, nhận dạng sinh trắc học khuôn mặt, sản xuất công nghiệp từ xa và dự đoán thị trường chứng khoán.
Bất chấp những cảnh báo sớm về những lỗ hổng nhân quyền sẽ được tạo ra và chi phí xã hội của AI do sự thay thế của con người trong vai trò là một yếu tố sản xuất, những người bác bỏ sự phát triển của AI vẫn khăng khăng coi đó chỉ là một sự gián đoạn công nghệ khác. Tuy nhiên, các bước gần đây trong việc tối ưu hóa các thuật toán AI chỉ ra rằng, ngoài những khác biệt về lý thuyết hiện có xung quanh sự xuất hiện của điểm kỳ dị công nghệ, chúng ta đang bỏ lại giai đoạn AI đơn giản hoặc thu hẹp.
Do đó, người ta kỳ vọng rằng một khi máy móc đạt được quyền tự chủ cơ bản trong vài năm tới, chúng sẽ không chỉ có thể sửa chữa những sai sót trong hoạt động của mình bằng cách tìm ra những cách tốt hơn để tạo ra kết quả tốt hơn mà còn có thể làm những việc mà con người đơn giản là không thể.
Khả năng sớm đạt đến điểm kỳ dị thường bị hạ thấp bởi những người hưởng lợi nhiều nhất từ sự phát triển của nó, cho rằng AI được thiết kế chỉ để phục vụ nhân loại và giúp con người làm việc hiệu quả hơn.
Tuy nhiên, một đề xuất như vậy có hai sai sót về cấu trúc. Đầu tiên, điểm kỳ dị không nên được xem như một thời điểm cụ thể mà là một quá trình, trong nhiều lĩnh vực, đã bắt đầu. Thứ hai, phát triển dần dần tính độc lập của máy móc đồng thời thúc đẩy sự phụ thuộc của con người thông qua việc sử dụng chúng hàng ngày, trên thực tế, sẽ tạo ra kết quả ngược lại: máy móc thông minh hơn và con người kém thông minh hơn.
Chúng tôi mong muốn cung cấp cho máy AI những thuộc tính xa lạ với bản chất con người (dung lượng lưu trữ bộ nhớ không giới hạn, khả năng xử lý chớp nhoáng, khả năng ra quyết định vô cảm), tuy nhiên, chúng tôi hy vọng sẽ kiểm soát sản phẩm của phát minh khó đoán nhất của chúng tôi. Hơn nữa, do các kiến trúc sư của sự chuyển đổi như vậy hầu hết tập trung ở rất ít quốc gia và thiết kế của họ được bảo vệ bởi luật sở hữu trí tuệ hoặc luật an ninh quốc gia, nên việc kiểm soát sự phát triển AI chỉ là ảo tưởng.
Khả năng tự nhận thức của máy móc bắt đầu bằng việc thích ứng liên tục trong các thuật toán học tập không giám sát. Nhưng sự thích ứng của công nghệ lượng tử sẽ củng cố hơn nữa điểm kỳ dị của AI bằng cách biến trí tuệ nhân tạo của máy thành một dạng trí thông minh vượt trội nhờ khả năng kết nối dữ liệu theo cấp số nhân để tạo ra kết quả tốt hơn. Tuy nhiên, máy móc không cần phải có ý thức hoàn toàn và công nghệ lượng tử không cần được tích hợp vào AI để giai đoạn kỳ dị bắt đầu.
Từ các kỳ thi tuyển sinh vào trường luật đến cấp phép y tế, việc sử dụng các thuật toán học tập không giám sát (chẳng hạn như Chat-GPT3 và BARD) cho thấy máy móc có thể làm những việc mà con người ngày nay làm. Những kết quả này, cùng với sự phát triển đầy tham vọng nhất của AI (AI được trao quyền thông qua công nghệ lượng tử), tạo thành lời cảnh báo cuối cùng cho nhân loại: Việc vượt qua ranh giới giữa tối ưu hóa cơ bản và tối ưu hóa theo cấp số nhân của các thuật toán học tập không giám sát là điểm không thể quay lại mà chắc chắn sẽ dẫn đến AI điểm kỳ dị.
Do đó, thời điểm cho hành động chính trị quốc tế đã đến. Cả các quốc gia sản xuất AI và không sản xuất AI phải cùng nhau tạo ra một tổ chức quốc tế về giám sát công nghệ, cùng với một hiệp ước quốc tế về trí tuệ nhân tạo đặt ra các nguyên tắc đạo đức cơ bản.
Rủi ro lớn nhất là con người có thể nhận ra rằng điểm kỳ dị của AI chỉ xảy ra khi máy móc loại bỏ lỗ hổng trong thiết kế ban đầu hạn chế trí thông minh của con người khỏi quá trình thích ứng học tập: đầu vào của con người. Rốt cuộc, điểm kỳ dị của AI sẽ không thể đảo ngược một khi máy móc nhận ra điều mà con người thường quên: sai lầm là của con người.
Tác giả J. Mauricio Gaona là Học giả Oppenheimer tại Đại học McGill, thành viên O'Brien tại Trung tâm Nhân quyền CHRLP ở Montreal và thành viên thỉnh giảng tại Trung tâm Nghiên cứu Cao cấp HRC Indianapolis.
Bài gốc tại đây.
>> Trí tuệ nhân tạo AI và ChatGPT sẽ ảnh hưởng như thế nào đến công việc ở tất cả các cấp độ chuyên nghiệp
>> Microsoft cho biết AI mới có dấu hiệu suy luận của con người
Lý thuyết về điểm kỳ dị công nghệ dự đoán một thời điểm con người mất kiểm soát đối với các phát minh công nghệ và những phát triển tiếp theo do sự trỗi dậy của ý thức máy móc và kết quả là trí thông minh vượt trội. Nói tóm lại, việc đạt đến giai đoạn kỳ dị tạo thành mối đe dọa lớn nhất của trí tuệ nhân tạo (AI) đối với nhân loại. Thật không may, điểm kỳ dị AI đã được tiến hành.
AI sẽ hiệu quả không chỉ khi máy móc có thể làm những gì con người làm (sao chép), mà còn khi chúng có thể làm điều đó tốt hơn và không có sự giám sát của con người (thích ứng). Học tăng cường (dữ liệu được nhận dạng dẫn đến kết quả dự đoán) và thuật toán học có giám sát (dữ liệu được gắn nhãn dẫn đến kết quả dự đoán) rất quan trọng đối với sự phát triển của người máy, trợ lý kỹ thuật số và công cụ tìm kiếm. Nhưng tương lai của nhiều ngành công nghiệp và khám phá khoa học phụ thuộc nhiều hơn vào sự phát triển của các thuật toán học tập không giám sát (dữ liệu không được gắn nhãn dẫn đến kết quả được cải thiện), bao gồm xe tự lái, chẩn đoán y tế không xâm lấn, xây dựng không gian có hỗ trợ, thiết kế vũ khí tự trị, nhận dạng sinh trắc học khuôn mặt, sản xuất công nghiệp từ xa và dự đoán thị trường chứng khoán.
Bất chấp những cảnh báo sớm về những lỗ hổng nhân quyền sẽ được tạo ra và chi phí xã hội của AI do sự thay thế của con người trong vai trò là một yếu tố sản xuất, những người bác bỏ sự phát triển của AI vẫn khăng khăng coi đó chỉ là một sự gián đoạn công nghệ khác. Tuy nhiên, các bước gần đây trong việc tối ưu hóa các thuật toán AI chỉ ra rằng, ngoài những khác biệt về lý thuyết hiện có xung quanh sự xuất hiện của điểm kỳ dị công nghệ, chúng ta đang bỏ lại giai đoạn AI đơn giản hoặc thu hẹp.
Do đó, người ta kỳ vọng rằng một khi máy móc đạt được quyền tự chủ cơ bản trong vài năm tới, chúng sẽ không chỉ có thể sửa chữa những sai sót trong hoạt động của mình bằng cách tìm ra những cách tốt hơn để tạo ra kết quả tốt hơn mà còn có thể làm những việc mà con người đơn giản là không thể.
Khả năng sớm đạt đến điểm kỳ dị thường bị hạ thấp bởi những người hưởng lợi nhiều nhất từ sự phát triển của nó, cho rằng AI được thiết kế chỉ để phục vụ nhân loại và giúp con người làm việc hiệu quả hơn.
Tuy nhiên, một đề xuất như vậy có hai sai sót về cấu trúc. Đầu tiên, điểm kỳ dị không nên được xem như một thời điểm cụ thể mà là một quá trình, trong nhiều lĩnh vực, đã bắt đầu. Thứ hai, phát triển dần dần tính độc lập của máy móc đồng thời thúc đẩy sự phụ thuộc của con người thông qua việc sử dụng chúng hàng ngày, trên thực tế, sẽ tạo ra kết quả ngược lại: máy móc thông minh hơn và con người kém thông minh hơn.
Chúng tôi mong muốn cung cấp cho máy AI những thuộc tính xa lạ với bản chất con người (dung lượng lưu trữ bộ nhớ không giới hạn, khả năng xử lý chớp nhoáng, khả năng ra quyết định vô cảm), tuy nhiên, chúng tôi hy vọng sẽ kiểm soát sản phẩm của phát minh khó đoán nhất của chúng tôi. Hơn nữa, do các kiến trúc sư của sự chuyển đổi như vậy hầu hết tập trung ở rất ít quốc gia và thiết kế của họ được bảo vệ bởi luật sở hữu trí tuệ hoặc luật an ninh quốc gia, nên việc kiểm soát sự phát triển AI chỉ là ảo tưởng.
Khả năng tự nhận thức của máy móc bắt đầu bằng việc thích ứng liên tục trong các thuật toán học tập không giám sát. Nhưng sự thích ứng của công nghệ lượng tử sẽ củng cố hơn nữa điểm kỳ dị của AI bằng cách biến trí tuệ nhân tạo của máy thành một dạng trí thông minh vượt trội nhờ khả năng kết nối dữ liệu theo cấp số nhân để tạo ra kết quả tốt hơn. Tuy nhiên, máy móc không cần phải có ý thức hoàn toàn và công nghệ lượng tử không cần được tích hợp vào AI để giai đoạn kỳ dị bắt đầu.
Từ các kỳ thi tuyển sinh vào trường luật đến cấp phép y tế, việc sử dụng các thuật toán học tập không giám sát (chẳng hạn như Chat-GPT3 và BARD) cho thấy máy móc có thể làm những việc mà con người ngày nay làm. Những kết quả này, cùng với sự phát triển đầy tham vọng nhất của AI (AI được trao quyền thông qua công nghệ lượng tử), tạo thành lời cảnh báo cuối cùng cho nhân loại: Việc vượt qua ranh giới giữa tối ưu hóa cơ bản và tối ưu hóa theo cấp số nhân của các thuật toán học tập không giám sát là điểm không thể quay lại mà chắc chắn sẽ dẫn đến AI điểm kỳ dị.
Do đó, thời điểm cho hành động chính trị quốc tế đã đến. Cả các quốc gia sản xuất AI và không sản xuất AI phải cùng nhau tạo ra một tổ chức quốc tế về giám sát công nghệ, cùng với một hiệp ước quốc tế về trí tuệ nhân tạo đặt ra các nguyên tắc đạo đức cơ bản.
Rủi ro lớn nhất là con người có thể nhận ra rằng điểm kỳ dị của AI chỉ xảy ra khi máy móc loại bỏ lỗ hổng trong thiết kế ban đầu hạn chế trí thông minh của con người khỏi quá trình thích ứng học tập: đầu vào của con người. Rốt cuộc, điểm kỳ dị của AI sẽ không thể đảo ngược một khi máy móc nhận ra điều mà con người thường quên: sai lầm là của con người.
Tác giả J. Mauricio Gaona là Học giả Oppenheimer tại Đại học McGill, thành viên O'Brien tại Trung tâm Nhân quyền CHRLP ở Montreal và thành viên thỉnh giảng tại Trung tâm Nghiên cứu Cao cấp HRC Indianapolis.
Bài gốc tại đây.