Bài báo dài của Bill Gates: Có thể kiểm soát được nguy cơ của AI và sẽ có tác động như sự ra đời của PC

Trung Đào

Writer
1 - Gates chỉ ra rằng tương lai của trí tuệ nhân tạo (AI) sẽ không nghiệt ngã như một số người tưởng tượng, cũng không lạc quan như một số người tưởng tượng. Rủi ro của AI là có thật, nhưng có thể kiểm soát được.
2 - Gates cho rằng tác động của trí tuệ nhân tạo sẽ không lớn bằng cách mạng công nghiệp nhưng sẽ có tác động lớn như sự ra đời của máy tính cá nhân, nhiều vấn đề do trí tuệ nhân tạo gây ra có thể được chính trí tuệ nhân tạo giải quyết.
3 - Tác động chính của trí tuệ nhân tạo đến công việc sẽ là giúp con người hoàn thành công việc hiệu quả hơn, và tình trạng thất nghiệp do trí tuệ nhân tạo gây ra cũng có thể kiểm soát được.
4 - Con người có thể quản lý rủi ro của AI đồng thời tối đa hóa lợi ích của nó, nhưng các chính phủ cần phải hành động nhanh chóng.
Bài báo dài của Bill Gates: Có thể kiểm soát được nguy cơ của AI và sẽ có tác động như sự ra đời của PC
Ngày 12 tháng 7, người sáng lập Microsoft Bill Gates đã đăng một bài đăng trên blog vào thứ Ba, nói rằng tương lai của trí tuệ nhân tạo sẽ không nghiệt ngã cũng không lạc quan như một số người nghĩ. Rủi ro của AI là có thật, nhưng có thể kiểm soát được. Gates tin rằng tác động của trí tuệ nhân tạo sẽ không lớn bằng cuộc cách mạng công nghiệp, nhưng nó sẽ mang lại tác động lớn như sự ra đời của máy tính cá nhân, rất nhiều vấn đề do trí tuệ nhân tạo gây ra đều có thể được giải quyết bằng chính trí tuệ nhân tạo.
Sau đây là toàn văn bài viết:
Những rủi ro do AI gây ra có vẻ quá lớn. Điều gì sẽ xảy ra với những người bị máy móc thông minh cướp mất việc làm? Trí tuệ nhân tạo sẽ ảnh hưởng đến kết quả bầu cử? Điều gì sẽ xảy ra nếu trí tuệ nhân tạo trong tương lai quyết định rằng con người không còn cần thiết nữa và muốn loại bỏ chúng?
Đây là những câu hỏi công bằng và những lo ngại mà chúng nêu ra cần được xem xét một cách nghiêm túc. Nhưng có lý do chính đáng để nghĩ rằng chúng ta có thể đối phó với chúng: Đây không phải là lần đầu tiên những đổi mới lớn mang đến những mối đe dọa mới cần phải được ngăn chặn. Chúng tôi đã trải qua điều này trước đây.
Cho dù đó là sự ra đời của ô tô hay sự trỗi dậy của máy tính cá nhân và Internet, nhân loại đã trải qua những khoảnh khắc biến đổi. Mặc dù có nhiều biến động trên đường đi, nhưng tất cả cuối cùng đều tốt hơn. Ngay sau khi những chiếc xe đầu tiên lên đường, những vụ tai nạn đầu tiên đã xảy ra. Nhưng chúng tôi không cấm ô tô -- chúng tôi đặt ra giới hạn tốc độ, tiêu chuẩn an toàn, giấy phép lái xe, luật uống rượu khi lái xe và các quy tắc giao thông khác.
Hiện chúng ta đang ở giai đoạn phôi thai của một sự chuyển đổi sâu sắc khác, thời đại của trí tuệ nhân tạo. Nó tương tự như những thời điểm không chắc chắn trước giới hạn tốc độ và thắt dây an toàn. AI đang thay đổi nhanh đến mức không rõ điều gì sẽ xảy ra tiếp theo. Chúng ta đang đối mặt với những câu hỏi lớn về cách thức hoạt động của công nghệ hiện tại, cách mọi người sẽ sử dụng nó cho mục đích xấu và trí tuệ nhân tạo sẽ thay đổi xã hội như thế nào.
Trong những khoảnh khắc như thế này, thật tự nhiên khi cảm thấy khó chịu. Nhưng lịch sử cho thấy rằng có thể giải quyết những thách thức do công nghệ mới đặt ra.
Trước đây tôi đã viết về việc trí tuệ nhân tạo sẽ cách mạng hóa cuộc sống của chúng ta như thế nào. Nó sẽ giúp giải quyết các vấn đề như y tế, giáo dục, biến đổi khí hậu mà trước đây dường như là nan giải. Quỹ Gates đã ưu tiên điều này và Giám đốc điều hành của chúng tôi, Mark Suzman, gần đây đã chia sẻ suy nghĩ của mình về vai trò của AI trong việc giảm bất bình đẳng.
Tôi sẽ có nhiều điều để nói hơn trong tương lai về lợi ích của AI, nhưng trong bài đăng này, tôi muốn thừa nhận những mối quan tâm mà tôi nghe và đọc thường xuyên nhất, nhiều mối quan tâm trong số đó tôi chia sẻ. Tôi cũng sẽ giải thích những gì tôi nghĩ về họ.
Từ tất cả những gì đã được viết cho đến nay về rủi ro của AI, rõ ràng là không ai có tất cả các câu trả lời. Một điều nữa rõ ràng với tôi là tương lai của trí tuệ nhân tạo không nghiệt ngã như một số người nghĩ, cũng không màu hồng như những người khác nghĩ. Những rủi ro là có thật, nhưng tôi lạc quan rằng chúng có thể được quản lý. Khi thảo luận về từng vấn đề, tôi sẽ quay lại một số chủ đề:
--Nhiều vấn đề do trí tuệ nhân tạo đặt ra đã có tiền lệ trong lịch sử. Ví dụ, nó sẽ có tác động lớn đến giáo dục. Nhưng điều tương tự cũng đúng với máy tính cầm tay từ nhiều thập kỷ trước. Gần đây, các trường học đã cho phép học sinh mang máy tính vào lớp học. Chúng ta có thể học hỏi từ kinh nghiệm trong quá khứ.
--Nhiều vấn đề do trí tuệ nhân tạo gây ra cũng có thể được quản lý với sự trợ giúp của trí tuệ nhân tạo.
-- Chúng ta cần sửa đổi các luật cũ và áp dụng các luật mới -- cũng giống như các luật chống gian lận hiện tại phải thích ứng với thế giới trực tuyến.
Trong bài viết này, tôi sẽ tập trung vào những rủi ro đang tồn tại hoặc sắp xảy ra. Tôi không giải quyết những gì xảy ra khi chúng ta phát triển một AI có thể học bất kỳ chủ đề hoặc nhiệm vụ nào, trái ngược với AI được xây dựng có mục đích ngày nay. Cho dù chúng ta đạt đến điểm này trong một thập kỷ hay một thế kỷ, xã hội cần suy nghĩ về một số câu hỏi sâu sắc. Điều gì sẽ xảy ra nếu một siêu AI thiết lập mục tiêu của riêng mình? Nếu chúng xung đột với con người thì sao? Chúng ta có nên xây dựng một siêu trí tuệ nhân tạo?
Nhưng việc xem xét những rủi ro dài hạn này không nên đánh đổi bằng những rủi ro cấp bách hơn. Bây giờ tôi sẽ giải quyết những vấn đề này:
Thông tin sai lệch và thông tin sai lệch do AI tạo ra có thể làm suy yếu các cuộc bầu cử và nền dân chủ
Ý tưởng rằng công nghệ có thể được sử dụng để truyền bá thông tin dối trá và sai lệch không phải là mới. Mọi người đã làm điều này với sách và tờ rơi trong nhiều thế kỷ. Điều này trở nên dễ dàng hơn nhiều với sự ra đời của bộ xử lý văn bản, máy in laser, email và mạng xã hội.
Trí tuệ nhân tạo đã giải quyết vấn đề văn bản giả và mở rộng nó để cho phép hầu hết mọi người tạo âm thanh và video giả, được gọi là deepfakes. Nếu bạn nhận được một tin nhắn thoại giống như con bạn đang nói "Tôi đã bị bắt cóc, vui lòng gửi 1000 đô la vào tài khoản ngân hàng này trong vòng 10 phút tới và đừng gọi cảnh sát". Điều này sẽ có tác động cảm xúc nghiêm trọng hơn nhiều so với tác động của một email có cùng nội dung.
Ở quy mô lớn hơn, deepfakes do AI tạo ra có thể được sử dụng để cố gắng làm sai lệch các cuộc bầu cử. Tất nhiên, không cần đến công nghệ tinh vi để gây nghi ngờ về người chiến thắng hợp pháp trong cuộc bầu cử, nhưng AI sẽ giúp việc đó trở nên dễ dàng hơn.
Đã có một số video giả mạo có cảnh quay hư cấu của các chính trị gia nổi tiếng. Hãy tưởng tượng rằng vào buổi sáng của một cuộc bầu cử quan trọng, một video quay cảnh một ứng cử viên cướp ngân hàng được lan truyền rộng rãi. Điều này là sai, nhưng các phương tiện truyền thông và chiến dịch sẽ mất hàng giờ để chứng minh điều đó. Có bao nhiêu người sẽ thay đổi phiếu bầu của họ vào phút cuối sau khi nhìn thấy nó? Điều đó có thể xoay chuyển tình thế, đặc biệt là trong một cuộc bầu cử sát nút.
Khi người đồng sáng lập OpenAI Sam Altman xuất hiện trước ủy ban Thượng viện Hoa Kỳ gần đây, các thượng nghị sĩ của cả hai đảng đã tập trung vào tác động của AI đối với các cuộc bầu cử và dân chủ. Tôi hy vọng vấn đề này tiếp tục nằm trong chương trình nghị sự của mọi người.
Chúng tôi chắc chắn chưa giải quyết được vấn đề thông tin sai lệch và giả mạo. Nhưng có hai điều khiến tôi lạc quan một cách thận trọng. Một là mọi người có khả năng học cách không coi mọi thứ theo giá trị bề ngoài. Trong nhiều năm, người dùng email đã rơi vào bẫy lừa đảo trong đó ai đó đóng giả là hoàng tử Nigeria, hứa hẹn một khoản tiền lớn và đổi lại, chia sẻ số thẻ tín dụng của bạn. Nhưng cuối cùng, hầu hết mọi người học cách đọc những email đó nhiều hơn. Khi những trò gian lận trở nên tinh vi hơn, thì nhiều mục tiêu của chúng cũng vậy.
Một điều khác khiến tôi hy vọng là trí tuệ nhân tạo có thể giúp xác định các tác phẩm sâu. Ví dụ: Intel đã phát triển một công cụ phát hiện deepfake và Cơ quan Dự án Nghiên cứu Tiên tiến của Bộ Quốc phòng Hoa Kỳ (DARPA) đang nghiên cứu các kỹ thuật để xác định xem video hoặc âm thanh có bị thao túng hay không.
Nó sẽ là một quá trình tuần hoàn: Ai đó tìm cách phát hiện hàng giả, người khác tìm ra cách chống lại nó, ai đó phát triển biện pháp đối phó, v.v. Nó sẽ không phải là một thành công hoàn hảo, nhưng chúng tôi cũng sẽ không bất lực.
AI giúp khởi động các cuộc tấn công vào con người và chính phủ dễ dàng hơn
Ngày nay, khi tin tặc muốn tìm các lỗ hổng có thể khai thác trong phần mềm, chúng thực hiện bằng vũ lực -- viết mã tấn công các điểm yếu tiềm ẩn cho đến khi chúng tìm được cách xâm nhập. Phải mất rất nhiều ngõ cụt, có nghĩa là thời gian và sự kiên nhẫn.
Các chuyên gia bảo mật muốn chống lại tin tặc cũng phải làm như vậy. Mỗi bản vá phần mềm bạn cài đặt trên điện thoại hoặc máy tính xách tay của mình đều là một quá trình tìm kiếm lâu dài của mọi người, dù tốt hay xấu.
Các mô hình AI sẽ tăng tốc quá trình này bằng cách giúp tin tặc viết mã hiệu quả hơn. Họ cũng có thể sử dụng thông tin có sẵn công khai về các cá nhân, chẳng hạn như nơi họ làm việc và bạn bè của họ là ai, để phát triển các cuộc tấn công lừa đảo tiên tiến hơn nhiều so với những gì chúng ta thấy ngày nay.
Tin tốt là trí tuệ nhân tạo có thể được sử dụng cho cả mục đích tốt và xấu. Các nhóm bảo mật trong chính phủ và khu vực tư nhân cần có các công cụ mới nhất để tìm và khắc phục các lỗ hổng bảo mật trước khi chúng bị bọn tội phạm lợi dụng. Tôi hy vọng ngành bảo mật phần mềm sẽ mở rộng công việc họ đang làm trong lĩnh vực này -- đó phải là mối quan tâm hàng đầu của họ.
Đây là lý do tại sao chúng ta không nên cố gắng tạm thời ngăn cản mọi người nhận ra những bước phát triển mới trong trí tuệ nhân tạo, như một số người đã đề xuất. Tội phạm mạng sẽ không ngừng tạo ra các công cụ mới. Bất cứ ai muốn sử dụng AI để chế tạo vũ khí hạt nhân và các cuộc tấn công khủng bố sinh học cũng vậy. Những nỗ lực để ngăn chặn chúng cần phải tiếp tục với tốc độ tương tự.
Ngoài ra còn có một rủi ro liên quan ở cấp độ toàn cầu: cuộc chạy đua phát triển trong lĩnh vực trí tuệ nhân tạo có thể được sử dụng để thiết kế và khởi động các cuộc tấn công mạng chống lại các quốc gia khác. Mọi chính phủ đều muốn có công nghệ mạnh nhất để có thể ngăn chặn các cuộc tấn công của kẻ thù. Động cơ không để ai đi trước này có thể châm ngòi cho một cuộc chạy đua tạo ra vũ khí mạng ngày càng nguy hiểm. Mọi người trở nên tồi tệ hơn.
Đó là một suy nghĩ đáng sợ, nhưng chúng tôi có lịch sử để hướng dẫn chúng tôi. Đối với tất cả những sai sót của nó, chế độ không phổ biến vũ khí hạt nhân của thế giới đã ngăn chặn cuộc chiến tranh hạt nhân tổng lực mà thế hệ của tôi lớn lên kinh hãi. Các chính phủ nên xem xét việc thành lập một cơ quan toàn cầu về AI, tương tự như Cơ quan Năng lượng Nguyên tử Quốc tế.
AI sẽ lấy đi việc làm của con người
Tác động chính của trí tuệ nhân tạo đối với công việc trong những năm tới sẽ là giúp mọi người thực hiện công việc của họ hiệu quả hơn. Điều này đúng cho dù họ làm việc trong nhà máy hay trong văn phòng xử lý các cuộc gọi bán hàng và các khoản phải trả. Cuối cùng, AI sẽ có thể diễn đạt suy nghĩ tốt đến mức có thể viết email và quản lý hộp thư đến cho bạn.
Bạn sẽ có thể viết một yêu cầu bằng tiếng Anh đơn giản hoặc bất kỳ ngôn ngữ nào khác và trình bày phong phú về công việc của bạn.
Như tôi đã lập luận trong bài báo tháng Hai của mình, tăng năng suất là điều tốt cho xã hội. Nó giải phóng mọi người để làm những việc khác, cho dù ở nơi làm việc hay ở nhà. Nhu cầu về những người giúp đỡ người khác - ví dụ như dạy học, chăm sóc người bệnh và chu cấp cho người già - sẽ không bao giờ mất đi. Nhưng đúng là một số công nhân sẽ cần được hỗ trợ và đào tạo lại khi chúng ta chuyển sang môi trường làm việc do AI điều khiển. Đó là công việc của các chính phủ và doanh nghiệp, và họ cần quản lý nó thật tốt để người lao động không bị bỏ lại phía sau -- để tránh kiểu gián đoạn đối với cuộc sống của người dân đã xảy ra trong thời kỳ suy giảm việc làm trong lĩnh vực sản xuất của Hoa Kỳ.
Ngoài ra, hãy nhớ rằng đây không phải là lần đầu tiên một công nghệ mới gây ra sự thay đổi lớn trong thị trường lao động. Tôi không nghĩ tác động của AI sẽ mạnh mẽ như Cách mạng Công nghiệp, nhưng chắc chắn nó sẽ to lớn như sự ra đời của máy tính cá nhân. Các ứng dụng xử lý văn bản không loại bỏ công việc văn phòng, nhưng chúng đã thay đổi nó mãi mãi. Người sử dụng lao động và nhân viên phải thích nghi, và họ đã làm được. Sự chuyển đổi do AI mang lại sẽ rất gập ghềnh, nhưng có mọi lý do để nghĩ rằng chúng ta có thể giảm thiểu sự gián đoạn đối với cuộc sống và sinh kế của mọi người.
AI kế thừa những thành kiến của con người và tạo nên mọi thứ.
Ảo giác—một thuật ngữ chỉ khi AI tự tin đưa ra các khẳng định đơn giản là không đúng sự thật—thường xảy ra do máy không hiểu ngữ cảnh yêu cầu của bạn. Yêu cầu AI viết một câu chuyện ngắn về kỳ nghỉ lên mặt trăng và nó có thể cho bạn câu trả lời rất giàu trí tưởng tượng. Nhưng hãy để nó giúp bạn lên kế hoạch cho một chuyến đi đến Tanzania và nó có thể cố gắng đưa bạn đến một khách sạn không tồn tại.
Một rủi ro khác của AI là nó phản ánh hoặc thậm chí làm trầm trọng thêm những thành kiến hiện có đối với một số bản sắc giới tính, chủng tộc, sắc tộc, v.v.
Để hiểu tại sao ảo giác và thành kiến lại xảy ra, điều quan trọng là phải biết cách thức hoạt động của các mô hình AI phổ biến nhất hiện nay. Về cơ bản, chúng là các phiên bản mã rất phức tạp cho phép ứng dụng email của bạn dự đoán từ tiếp theo mà bạn sắp nhập: chúng quét một lượng lớn văn bản -- trong một số trường hợp, gần như mọi thứ bạn có thể tìm thấy trực tuyến -- Và phân tích nó để tìm các mẫu trong ngôn ngữ của con người.
Khi bạn đặt câu hỏi cho AI, nó sẽ xem xét các từ bạn sử dụng và sau đó tìm kiếm các đoạn văn bản thường được liên kết với các từ đó. Nếu bạn viết "liệt kê nguyên liệu làm bánh kếp", bạn có thể nhận thấy rằng các từ "bột mì, đường, muối, bột nở, sữa và trứng" thường xuất hiện cùng với cụm từ. Sau đó, dựa trên những gì nó biết về thứ tự xuất hiện của những từ này, nó sẽ tạo ra câu trả lời. (Các mô hình AI hoạt động theo cách này sử dụng cái được gọi là máy biến áp. GPT-4 là một trong những mô hình như vậy.)
Quá trình này giải thích tại sao AI có thể bị ảo giác hoặc phát triển thành kiến. Câu hỏi bạn đang hỏi cũng như điều bạn đang nói đều không có ngữ cảnh. Nếu bạn nói với một người rằng nó đã nhập sai, nó có thể nói, "Xin lỗi, tôi đã đánh máy sai." Nhưng đó chỉ là ảo tưởng -- nó không gõ gì cả. Nó chỉ nói rằng vì nó đã quét đủ văn bản để biết rằng "xin lỗi, tôi đã gõ sai" là câu mà mọi người thường viết sau khi ai đó sửa chúng.
Tương tự như vậy, các mô hình AI kế thừa bất kỳ thành kiến nào trong văn bản mà chúng được đào tạo. Nếu một người đọc nhiều về các bác sĩ và nam giới được đề cập trong phần lớn các cuốn sách, câu trả lời sẽ cho rằng hầu hết các bác sĩ là nam giới.
Trong khi một số nhà nghiên cứu cho rằng ảo giác là một vấn đề cố hữu, tôi không đồng ý. Tôi lạc quan rằng theo thời gian, các mô hình AI có thể được dạy để phân biệt thực tế với hư cấu. Ví dụ, OpenAI đang làm công việc đầy hứa hẹn trong lĩnh vực này.
Các tổ chức khác, bao gồm Viện Alan Turing và Viện Tiêu chuẩn và Công nghệ Quốc gia, đang làm việc để giải quyết sự thiên vị. Một cách tiếp cận là xây dựng các giá trị con người và lý luận cấp cao hơn vào AI. Nó tương tự như cách làm việc của một người tự nhận thức: có thể bạn nghĩ rằng hầu hết các bác sĩ là đàn ông, nhưng bạn đủ nhận thức về giả định đó để biết rằng bạn phải đấu tranh với nó một cách có ý thức. AI có thể hoạt động theo cách tương tự, đặc biệt nếu các mô hình được thiết kế bởi những người có xuất thân khác nhau.
Cuối cùng, tất cả mọi người sử dụng AI cần nhận thức được vấn đề sai lệch và là người dùng có hiểu biết. Các bài viết mà bạn để AI soạn thảo có thể chứa đầy sai lệch và sai sót thực tế. Bạn cần kiểm tra AI và những thành kiến của riêng bạn.
Học sinh sẽ không học viết vì AI sẽ làm điều đó cho chúng. Nhiều giáo viên lo lắng rằng AI sẽ làm gián đoạn công việc của họ với học sinh. Trong thời đại mà bất kỳ ai có kết nối internet đều có thể sử dụng trí tuệ nhân tạo để viết một bản thảo đầu tiên đàng hoàng cho một luận án, điều gì có thể ngăn cản một sinh viên gửi nó như là của chính họ?
Đã có một số công cụ AI đang học cách phân biệt thứ gì đó được viết bởi con người hay máy tính, vì vậy giáo viên có thể biết khi nào học sinh của họ không làm bài tập về nhà. Nhưng một số giáo viên không cố gắng ngăn cản học sinh của họ sử dụng AI trong bài viết -- họ thực sự đang khuyến khích điều đó.
Vào tháng 1, một giáo viên tiếng Anh kỳ cựu tên là Cherie Shields đã viết một bài báo trên tờ Education Week về cách cô ấy sử dụng ChatGPT trong lớp học của mình. Nó giúp sinh viên của cô bắt đầu viết bài báo để viết dàn ý và thậm chí đưa ra phản hồi về bài làm của họ.
Cô viết: “Giáo viên sẽ phải nắm lấy công nghệ AI như một công cụ khác dành cho học sinh. "Giống như chúng ta đã từng dạy học sinh cách thực hiện tìm kiếm tốt trên Google, giáo viên nên thiết kế các bài học rõ ràng về cách bot ChatGPT có thể hỗ trợ viết luận. Việc thừa nhận sự tồn tại của AI và giúp học sinh sử dụng nó có thể cách mạng hóa cách chúng ta giảng dạy." giáo viên có thời gian để tìm hiểu và sử dụng một công cụ mới, nhưng các nhà giáo dục như Cherie Shields đưa ra lập luận xác đáng rằng những người làm như vậy sẽ được hưởng lợi rất nhiều.
Điều này làm tôi nhớ đến những năm 1970 và 1980 khi máy tính điện tử trở nên phổ biến. Một số giáo viên toán lo lắng rằng học sinh sẽ ngừng học cách làm các phép tính cơ bản, nhưng những giáo viên khác lại đón nhận công nghệ mới và tập trung vào các kỹ năng tư duy đằng sau phép tính số học.
Có một cách khác để AI có thể hỗ trợ viết lách và tư duy phản biện. Đặc biệt là trong những ngày đầu tiên này, khi ảo tưởng và thành kiến vẫn còn là một vấn đề, các nhà giáo dục có thể nhờ AI tạo ra các bài luận và sau đó kiểm tra tính xác thực của chúng với học sinh của họ. Các tổ chức giáo dục phi lợi nhuận như Học viện Khan mà tôi tài trợ và Dự án OER cung cấp cho giáo viên và học sinh các công cụ trực tuyến miễn phí chú trọng nhiều vào các xác nhận kiểm tra. Rất ít kỹ năng quan trọng hơn là biết cách phân biệt thật giả.
Chúng tôi thực sự cần đảm bảo rằng phần mềm giáo dục giúp thu hẹp khoảng cách thành tích chứ không làm cho nó tồi tệ hơn. Phần mềm ngày nay chủ yếu hướng tới những sinh viên đã có động lực. Nó có thể tạo một kế hoạch học tập cho bạn, chỉ cho bạn những nguồn thông tin tốt và kiểm tra kiến thức của bạn nhưng nó chưa biết làm thế nào để đưa bạn vào một chủ đề
Bạn không còn hứng thú nữa. Đây là điều mà các nhà phát triển cần giải quyết để tất cả các loại sinh viên đều có thể hưởng lợi từ AI.
Cái gì tiếp theo?
Tôi tin rằng có nhiều lý do để không lạc quan rằng chúng ta có thể quản lý rủi ro của AI trong khi tối đa hóa lợi ích của nó. Nhưng chúng ta cần phải hành động nhanh chóng.
Các chính phủ cần phát triển kiến thức chuyên môn về AI để có thể phát triển các luật và quy định hợp lý nhằm đối phó với công nghệ mới này. Họ cần phải vật lộn với thông tin sai lệch và thông tin sai lệch, các mối đe dọa về an ninh, những thay đổi trong thị trường việc làm và tác động đối với giáo dục. Chỉ một ví dụ: luật pháp cần làm rõ việc sử dụng deepfake nào là hợp pháp và cách deepfake được gắn cờ để mọi người hiểu rằng những gì họ nhìn thấy hoặc nghe thấy là không đúng sự thật.
Các nhà lãnh đạo chính trị cần có khả năng tham gia vào cuộc đối thoại sâu sắc, đầy đủ thông tin với các cử tri. Họ cũng cần quyết định mức độ hợp tác với các quốc gia khác về những vấn đề này, thay vì hành động một mình.
Trong khu vực tư nhân, các công ty AI cần phải làm việc an toàn và có trách nhiệm. Điều này bao gồm bảo vệ quyền riêng tư của mọi người, đảm bảo các mô hình AI của họ phản ánh các giá trị cơ bản của con người, giảm thiểu sự thiên vị để mang lại lợi ích cho nhiều người nhất có thể và ngăn chặn tội phạm hoặc khủng bố sử dụng công nghệ. Các công ty trên nhiều lĩnh vực của nền kinh tế sẽ cần giúp nhân viên của họ chuyển sang nơi làm việc tập trung vào AI để không ai bị bỏ lại phía sau. Khách hàng phải luôn biết khi nào họ đang tương tác với AI chứ không phải con người.
Cuối cùng, tôi khuyến khích mọi người theo dõi sự phát triển của trí tuệ nhân tạo càng nhiều càng tốt. Đây là sự đổi mới mang tính biến đổi nhất mà chúng ta sẽ thấy trong đời và một cuộc tranh luận công khai lành mạnh sẽ phụ thuộc vào sự hiểu biết của mọi người về công nghệ cũng như những lợi ích và rủi ro của nó. Lợi ích sẽ rất lớn và lý do tốt nhất để tin rằng chúng ta có thể quản lý rủi ro là chúng ta đã từng làm điều đó trước đây.
>> Tại sao Bill Gates không quá sợ AI?
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top