Nổ! Cha đẻ ChatGPT cảnh báo: AI có thể diệt vong loài người, 350 cơ quan AI ký thư ngỏ chung

Lizzie

Writer
Vừa rồi, một bức thư ngỏ quan trọng đã được đưa ra trong lĩnh vực AI.
350 nhà chức trách AI, bao gồm cả "cha đẻ của ChatGPT" Sam Altman, đã ký vào bức thư ngỏ chung và bày tỏ lo ngại rằng công nghệ AI hiện đang được phát triển có thể gây ra mối đe dọa hiện hữu cho con người.
Bức thư chỉ chứa một tuyên bố:
Giảm nguy cơ tuyệt chủng AI phải là ưu tiên toàn cầu cùng với các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân.
Nổ! Cha đẻ ChatGPT cảnh báo: AI có thể diệt vong loài người, 350 cơ quan AI ký thư ngỏ chung
Các bên ký kết bao gồm ba giám đốc điều hành công ty AI hàng đầu:
1- Giám đốc điều hành OpenAI Sam Altman;
2- Demis Hassabis, Giám đốc điều hành của Google DeepMind;
3- Giám đốc điều hành Anthropic Dario Amodei;
Quan trọng hơn, trong danh sách có sự góp mặt của hai "bố già" trí tuệ nhân tạo là Geoffrey Hinton và Yoshua Bengio.
Hơn 350 giám đốc điều hành, nhà nghiên cứu và kỹ sư làm việc về trí tuệ nhân tạo đã ký vào bức thư ngỏ do tổ chức phi lợi nhuận Trung tâm An toàn Trí tuệ Nhân tạo đưa ra, cho rằng trí tuệ nhân tạo có nguy cơ khiến loài người tuyệt chủng và nên được coi là có liên quan đến dịch bệnh. nguy cơ ngang với chiến tranh hạt nhân.
Mối lo ngại ngày càng tăng về mối đe dọa tiềm ẩn đối với xã hội và việc làm mà sự phát triển của các mô hình trí tuệ nhân tạo như ChatGPT có thể gây ra, nhiều người kêu gọi cần có quy định chặt chẽ hơn đối với ngành AI, nếu không nó sẽ gây ra thiệt hại không thể khắc phục cho xã hội.
Nổ! Cha đẻ ChatGPT cảnh báo: AI có thể diệt vong loài người, 350 cơ quan AI ký thư ngỏ chung
Trí tuệ nhân tạo tiếp tục phát triển, nhưng các phương pháp giám sát và kiểm tra liên quan không theo kịp, điều đó có nghĩa là không ai có thể đảm bảo sự an toàn của các công cụ trí tuệ nhân tạo và quá trình sử dụng các công cụ trí tuệ nhân tạo.
Tuần trước, Sam Altman và hai giám đốc điều hành OpenAI khác đã đề xuất thành lập một tổ chức quốc tế như Cơ quan Năng lượng Nguyên tử Quốc tế để giám sát an toàn sự phát triển của AI, đồng thời kêu gọi các nhà sản xuất trí tuệ nhân tạo hàng đầu quốc tế hợp tác và yêu cầu chính phủ tăng cường kiểm soát. của các nhà sản xuất trí tuệ nhân tạo tiên tiến.
Trên thực tế, ngay từ tháng 3, một bức thư ngỏ về việc ngừng nghiên cứu AI trong 6 tháng đã lan truyền khắp Internet.
Bức thư kêu gọi tất cả các thí nghiệm AI ngay lập tức đình chỉ nghiên cứu các mô hình AI tiên tiến hơn GPT-4 trong ít nhất 6 tháng, để giết chết những tưởng tượng khủng khiếp này trong nôi của chúng.
Nổ! Cha đẻ ChatGPT cảnh báo: AI có thể diệt vong loài người, 350 cơ quan AI ký thư ngỏ chung
Bức thư chung đã nhận được sự ủng hộ chữ ký từ nhiều nhân vật nổi tiếng bao gồm người chiến thắng giải thưởng Turing 2018 Yoshua Bengio, Musk, Steve Wozniak, đồng sáng lập Skype, đồng sáng lập Pinterest, Giám đốc điều hành Stability AI, v.v., số lượng tên chung vượt quá một nghìn.
Nguyên văn bức thư ngỏ như sau:
Trí tuệ nhân tạo có trí thông minh để cạnh tranh với con người, điều này có thể mang lại rủi ro sâu sắc cho xã hội và con người, điều này đã được xác nhận bởi một số lượng lớn các nghiên cứu và được các phòng thí nghiệm AI hàng đầu công nhận. Theo nguyên tắc AI của Asilomar được công nhận rộng rãi, AI tiên tiến có thể đại diện cho một sự chuyển đổi lớn trong lịch sử sự sống trên Trái đất và do đó cần được lên kế hoạch và quản lý với sự quan tâm và nguồn lực tương xứng.
Thật không may, ngay cả trong những tháng gần đây, các phòng thí nghiệm AI đã bị mắc kẹt trong một cuộc chạy đua nhằm phát triển và triển khai những bộ óc kỹ thuật số ngày càng mạnh mẽ mà không ai có thể hiểu, dự đoán hoặc kiểm soát một cách đáng tin cậy, ngay cả khi những người sáng tạo cũng không thể làm được điều đó.
Với các hệ thống AI hiện đại đang cạnh tranh với con người trong các nhiệm vụ thông thường, chúng ta phải tự hỏi:
1- Chúng ta có nên cho phép máy móc tràn ngập các kênh thông tin của chúng ta, tuyên truyền và dối trá?
2- Chúng ta có nên tự động hóa tất cả các công việc, kể cả những công việc khiến bạn hài lòng không?
3- Chúng ta có nên phát triển những bộ óc phi phàm để cuối cùng có thể vượt qua và thay thế chúng ta không?
4- Chúng ta có nên mạo hiểm vượt khỏi tầm kiểm soát của nền văn minh?
Những quyết định này không nên được đưa ra bởi các nhà lãnh đạo công nghệ không được bầu chọn. Chỉ khi chúng ta chắc chắn rằng tác động của hệ thống AI là tích cực và các rủi ro có thể kiểm soát được, chúng ta mới nên phát triển các hệ thống AI mạnh mẽ. Sự tự tin này phải có cơ sở vững chắc và phát triển cùng với tác động tiềm ẩn của hệ thống. Tuyên bố gần đây của OpenAI về trí tuệ nhân tạo nêu rõ: "Tại một thời điểm nào đó, có thể cần phải có được đánh giá độc lập trước khi bắt đầu đào tạo các hệ thống trong tương lai và cho những nỗ lực tiên tiến nhất để đồng ý hạn chế tốc độ tăng trưởng của tính toán được sử dụng để tạo ra mô hình mới". Chúng tôi đồng ý. Bây giờ là thời điểm đó.
Do đó, chúng tôi kêu gọi tạm dừng ngay lập tức đối với tất cả các phòng thí nghiệm AI trong ít nhất 6 tháng đối với việc đào tạo các hệ thống AI mạnh hơn GPT-4. Việc đình chỉ này phải được công khai và có thể kiểm chứng, đồng thời bao gồm tất cả những người đóng vai trò chủ chốt. Nếu lệnh cấm như vậy không thể được thực hiện nhanh chóng, chính phủ nên can thiệp và áp đặt lệnh cấm.
Các phòng thí nghiệm AI và các chuyên gia độc lập nên sử dụng thời gian tạm dừng này để cùng nhau phát triển và triển khai một bộ giao thức an toàn cho thiết kế và phát triển AI tiên tiến dùng chung. Các giao thức này cần được các chuyên gia độc lập bên ngoài xem xét và giám sát chặt chẽ.
Các giao thức này phải đảm bảo rằng các hệ thống tuân thủ chúng được an toàn ngoài sự nghi ngờ hợp lý. Điều này không có nghĩa là tạm dừng phát triển AI, mà chỉ đơn thuần là lùi một bước khỏi cuộc đua luôn nguy hiểm hướng tới các mô hình hộp đen lớn hơn, không thể đoán trước và các khả năng mới nổi của chúng.
Nghiên cứu và phát triển AI nên tập trung vào việc cải thiện độ chính xác, an toàn, khả năng giải thích, minh bạch, mạnh mẽ, liên kết, đáng tin cậy và trung thành của các hệ thống tiên tiến, mạnh mẽ hiện có.
Đồng thời, các nhà phát triển AI phải làm việc với các nhà hoạch định chính sách để tăng tốc đáng kể sự phát triển của các hệ thống quản trị AI. Những điều này ít nhất nên bao gồm:
1- Một cơ quan quản lý mới, có thẩm quyền dành riêng cho AI;
2- Giám sát và theo dõi các hệ thống AI dung lượng cao và các nhóm sức mạnh tính toán lớn;
3- Hệ thống nguồn gốc và thủy ấn để phân biệt nội dung thực với nội dung tổng hợp, theo dõi rò rỉ mô hình;
4- Hệ sinh thái kiểm toán và chứng nhận mạnh mẽ; trách nhiệm giải trình đối với thiệt hại do AI gây ra;
5- Đủ kinh phí công cho nghiên cứu kỹ thuật an toàn AI;
6- Tổ chức kỳ cựu đối phó với những thay đổi lớn về kinh tế và chính trị mà AI sẽ gây ra, đặc biệt là những tác động đối với các nền dân chủ.
Nhân loại có thể tận hưởng một tương lai thịnh vượng với sự trợ giúp của AI. Đã thành công trong việc tạo ra các hệ thống AI mạnh mẽ, giờ đây chúng ta có thể tận hưởng một "mùa hè AI", trong đó chúng ta gặt hái những phần thưởng khi sử dụng các hệ thống này một cách rõ ràng để mang lại lợi ích cho tất cả mọi người và tạo cơ hội cho xã hội thích nghi.
Xã hội đã nhấn nút tạm dừng khi đối mặt với các công nghệ khác có thể gây ra những tác động thảm khốc đối với xã hội. Ở đây chúng ta có thể làm như vậy. Hãy tận hưởng một mùa hè AI dài thay vì lao vào mùa thu mà không chuẩn bị.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top