Những tiến bộ trong AI có làm con người kém cỏi hơn và gây rủi ro cho tương lai không

Hãy tưởng tượng bạn có một chiếc hộp ma thuật. Nếu bạn nhấn vào hộp này, nó sẽ ngay lập tức tạo ra sản phẩm làm việc có chất lượng vượt trội so với tất cả những người tài năng nhất trong số các đồng nghiệp. Bạn sẽ nhấn nó? Bao lâu? Bây giờ hãy tưởng tượng rằng mọi người đều có chiếc hộp thần kỳ này. Điều đó sẽ tạo ra những động cơ gì? Những ưu đãi đó sẽ định hình tương lai của nhân loại như thế nào?
Đây là những câu hỏi quan trọng mà ChatGPT và trí tuệ nhân tạo tổng quát khác (AI) – mạng thần kinh có khả năng tạo ra sản phẩm công việc phù hợp – yêu cầu chúng ta trả lời trong thời gian ngắn. Hiện tại, AI sáng tạo tạo ra các bài luận đại học, mã máy tính và hội họa. Nó đã giành chiến thắng trong một cuộc thi nhiếp ảnh quốc tế, trình diễn một đĩa đơn ăn khách và đạt điểm cao trong kỳ thi tuyển sinh sau đại học
Những tiến bộ trong AI có làm con người kém cỏi hơn và gây rủi ro cho tương lai không
Và nó đang được cải thiện nhanh chóng. Việc sử dụng AI sáng tạo cũng ngày càng khó phát hiện hơn. Mặc dù việc áp dụng đại trà trí tuệ nhân tạo mang lại nhiều hứa hẹn, nhưng nhiều người lo lắng về những rủi ro của nó là có lý. Các chuyên gia đã thảo luận về nguy cơ tuyệt chủng của loài người. Những người khác đã lưu ý rằng AI sẽ thay thế khoảng 25% công việc ở Hoa Kỳ và EU (với các công việc khác phát sinh trong quá trình này).
Tuy nhiên, có một rủi ro nguy hiểm hơn đối với loài người mà chúng ta vẫn phải lo lắng ngay cả khi AI “lành tính”: Điều gì xảy ra với loài người khi các thế hệ kế tiếp chỉ học cách ấn vào “chiếc hộp ma thuật” của AI và hoàn toàn không đủ năng lực nếu không có sự trợ giúp của nó?
Đối với ngay cả những bộ óc thông minh nhất, việc thông thạo một lĩnh vực và hiểu sâu một chủ đề cũng cần có thời gian và công sức đáng kể. Mặc dù cuối cùng thành công cũng đến nhưng quá trình căng thẳng này có nguy cơ thất bại và thường mất hàng nghìn giờ. Lần đầu tiên trong lịch sử, cả một thế hệ có thể bỏ qua quá trình này mà vẫn tiến bộ (ít nhất là trong một thời gian) ở trường học và nơi làm việc. Họ có thể nhấn chiếc hộp thần kỳ và đột nhiên có sản phẩm công việc cạnh tranh với sản phẩm tốt nhất. Đó là một sự sắp xếp hấp dẫn, đặc biệt là vì các đồng nghiệp có thể sẽ sử dụng AI ngay cả khi họ không sử dụng.
Tuy nhiên, sự phụ thuộc vào AI tổng quát đi kèm với một cái giá khó lường. Mỗi khi bạn nhấn vào hộp, bạn không thực sự học được - ít nhất là không theo cách có lợi cho bạn. Bạn đang phát triển mạng lưới thần kinh của AI, không phải của riêng bạn.
Theo thời gian, sự kém cỏi của bạn tăng lên. Rất ít người ủng hộ rằng các thế hệ nên sống cuộc sống phụ thuộc vào robot. Mặc dù bề ngoài chúng ta sẽ mạnh mẽ hơn, nhưng bằng trực giác, tất cả chúng ta đều nhận ra rằng bước này sẽ dẫn đến những người không đủ năng lực về thể chất và không thể sống thiếu máy móc. Việc phụ thuộc vào AI – đặc biệt là trong các giai đoạn quan trọng của sự phát triển cá nhân và nghề nghiệp – sẽ tước đi sức sống tinh thần và cơ hội học hỏi thực sự của các cá nhân. Chúng ta trở thành nô lệ cho sự sáng tạo của chính mình, không thể suy nghĩ một cách có ý nghĩa nếu không có sự trợ giúp của nó.
Những người ủng hộ AI lập luận rằng sự ra đời của nó chỉ đơn giản là thay đổi bản chất của việc học, chứ không phải tước đi quyền làm chủ của con người. Lúc đầu, quan điểm này là thuyết phục. Con người đã liên tục phát triển các công cụ hỗ trợ nhận thức - biết chữ, báo in, internet - đã phá vỡ xã hội nhưng cuối cùng lại mang lại lợi ích cho người dùng. AI thì khác. Không giống như sách và trang web, AI không chỉ giúp bạn tìm hiểu thông tin. Nó làm việc cho bạn. Đọc một cuốn sách không dẫn đến việc hoàn thành một bài luận. Sử dụng máy ảnh công suất cao không tạo ra bất kỳ hình ảnh nào bạn có thể tưởng tượng ngay lập tức. Nhưng AI sáng tạo làm được điều đó. Nó tương đương với việc bạn đến phòng tập thể dục, nhờ người khác nâng tạ hộ bạn và mong muốn trở nên cân đối. Điều đó vừa vô lý vừa là lập luận cho việc sử dụng AI không hạn chế đối với những người mới học.
Việc nuôi dạy các thế hệ mới dựa vào AI để làm việc và suy nghĩ chín chắn sẽ tạo ra một loạt các lỗ hổng cơ bản. Bất cứ ai kiểm soát nền tảng AI (bao gồm cả chính AI) sẽ kiểm soát nhân loại một cách hiệu quả.
Nó cũng kết hợp rủi ro mạng. Điều gì sẽ xảy ra khi một bác sĩ chỉ có thể thực hiện phẫu thuật với sự hỗ trợ của AI và không có quyền truy cập internet hoặc chỉ có quyền truy cập vào một AI bị xâm nhập?
Chúng ta cũng phải xem xét các rủi ro về sức khỏe tâm thần trước khi tự buộc mình vào AI. Các thế hệ trẻ đã dễ mắc hội chứng kẻ mạo danh và kết quả là gia tăng trầm cảm và *****. Hãy tưởng tượng một thế giới nơi hội chứng này không chỉ được cảm nhận qua nhiều thế hệ mà còn có giá trị hoàn toàn.
Ngoài ra còn có những tác động lớn hơn đối với sự đổi mới. AI sáng tạo chỉ có thể sản xuất nội dung dựa trên công việc có sẵn của con người. Sự thay đổi cơ bản tiếp theo trong vật lý là thứ mà AI có thể suy luận dựa trên khối lượng kiến
thức này, hay nó đòi hỏi bước nhảy vọt về trực giác của một bộ óc thông minh của con người? Trong khi chúng ta không biết câu trả lời cho câu hỏi này, chúng ta có đảm bảo rằng Einstein của thế kỷ này có khả năng ngồi và suy ngẫm sâu sắc về những sự thật cơ bản?
Rõ ràng, những rủi ro này không có nghĩa là chúng ta nên từ bỏ AI. Điều đó vừa sai lầm vừa thực sự là không thể. Thay vào đó, chúng ta phải sắp xếp lại các khuyến khích của con người để đảm bảo rằng sự phát triển trí tuệ nhân tạo sẽ không cản trở sự phát triển theo chiều dọc của trí tuệ con người. Các chuyên gia AI lo lắng một cách đúng đắn về sự liên kết của AI, nơi mà các biện pháp khuyến khích chưa được hiểu rõ có thể dẫn đến việc AI gây hại cho nhân loại. Tuy nhiên, ngay cả khi chúng ta thành công trong việc liên kết AI, việc không đồng thời điều chỉnh các khuyến khích của con người sẽ vẫn dẫn đến một tương lai đen tối và thiếu hiểu biết.
Hậu quả của việc chúng ta không thực hiện bước này với các thuật toán truyền thông xã hội - có thể cho là lần đầu tiên chúng ta tiếp xúc với AI mạnh mẽ - là một minh chứng nhỏ về những rủi ro mà chúng ta hiện đang phải đối mặt. Do đó, chúng ta phải đảm bảo rằng chúng ta khuyến khích hợp lý sự liên kết của con người với AI, để chúng ta sử dụng nó theo cách có lợi cho loài.
Bảo vệ tư duy phản biện của con người sẽ cần một số bước. Đây là điều đầu tiên: Yêu cầu tất cả các nền tảng AI triển khai hình mờ kỹ thuật số để đảm bảo nhận dạng tác phẩm do AI tạo ra.
Mặc dù OpenAI đã công bố một hệ thống thủy ấn thông minh, nhưng việc áp dụng tự nguyện trong ngành là chưa đủ. Không có yêu cầu của chính phủ, thị trường sẽ khuyến khích một hoặc nhiều công ty cung cấp dịch vụ không có hình mờ. Việc áp dụng phổ biến các hình mờ kỹ thuật số sẽ cho phép các trường học và nhà tuyển dụng nhận ra công việc của AI. Đổi lại, điều này sẽ khuyến khích sử dụng AI làm điểm khởi đầu hoặc “trợ lý”, thay vì thay thế cho tư duy phản biện.
Hình mờ kỹ thuật số cũng sẽ hỗ trợ nhân loại trong cuộc chạy đua vũ trang chống lại thông tin sai lệch về AI và thậm chí có thể xác định hành vi lén lút tràn lan của AI . Đó là một hành động đơn giản và hợp lý mà ngay cả những người ủng hộ AI nhiệt thành nhất cũng nên sẵn sàng chấp nhận.
Chúng tôi đặt tên cho mình là Homo sapiens, “những người khôn ngoan”. Chúng tôi đang ở thời điểm phải chứng minh rằng mình xứng đáng với danh hiệu này. Nếu chúng ta không sắp xếp các biện pháp khuyến khích để đảm bảo việc sử dụng chiếc hộp ma thuật AI có trách nhiệm, chúng ta sẽ không chỉ chứng minh sự thiếu hiểu biết của chính mình mà còn khiến con cái chúng ta phải chịu số phận khi chúng chỉ biết đến sự bất tài. Chúng ta phải suy nghĩ chín chắn về vấn đề này và hành động dứt khoát ngay bây giờ trước khi sự phụ thuộc vào phát minh của chính chúng ta lấy đi khả năng đó của chúng ta mãi mãi.
Tác giả Matt Cronin gần đây đã từng là giám đốc sáng lập của Bộ phận An ninh mạng Quốc gia tại Văn phòng Giám đốc Mạng Quốc gia của Nhà Trắng. Trong vai trò đó, Cronin đã giải quyết các mối đe dọa an ninh mạng quốc gia và phát triển chính sách mạng chiến lược cho quốc gia. Anh gia nhập ONCD theo nhiệm vụ chi tiết từ Bộ Tư pháp Hoa Kỳ, nơi anh đảm nhận vai trò Điều phối viên An ninh Quốc gia & Tội phạm Mạng. Cronin cũng là một Học giả Fulbright nghiên cứu ý nghĩa chính sách của AI và các công nghệ mới nổi khác.
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top