"Quá nguy hiểm để công bố" đang trở thành chuẩn mực mới của AI

Đoàn Thúy Hà
Đoàn Thúy Hà
Phản hồi: 0

Đoàn Thúy Hà

Editor
Thành viên BQT
Tháng 4 này, OpenAI ra mắt GPT-Rosalind, một mô hình AI nhắm vào lĩnh vực khoa học sự sống, vượt trội hẳn các mô hình hiện có trong các tác vụ hóa học, sinh học và thiết kế thí nghiệm. Nhưng bạn không thể dùng nó. Mô hình chỉ dành cho "khách hàng đủ điều kiện" thông qua một "chương trình truy cập đáng tin cậy."

Cùng thời điểm đó, Anthropic cũng giới hạn Claude Mythos theo cách tương tự. Cả hai công ty đều không cho người dùng phổ thông tiếp cận những mô hình mạnh nhất của họ.

Đây không còn là ngoại lệ. Đây đang dần thành xu hướng.
1777104458769.png

Ai được quyết định?

Peter Wildeford từ AI Policy Network nhận xét rằng các công ty AI đang thực sự lo ngại về những gì các mô hình này có thể làm. Và chính họ đang tự ra quyết định: ai được dùng, ai không.

Câu hỏi đặt ra là liệu các công ty tư nhân có nên là người đưa ra những quyết định nặng nề như vậy hay không. Dân biểu Mark DeSaulnier nói thẳng: "Tôi nghĩ chính phủ liên bang có vai trò trong chuyện này."

Connor Leahy từ ControlAI so sánh thẳng thắn hơn: "Chúng ta không để công ty tự quyết xem được phép đổ bao nhiêu chất độc vào nguồn nước của con cái chúng ta. Đó là việc của chính phủ."

Vấn đề "lưỡng dụng": nghiên cứu và vũ khí trông giống nhau đến đáng sợ

Đây là bài toán khó nhất. Công cụ giúp nhà nghiên cứu an ninh mạng tìm lỗ hổng để vá, cũng có thể giúp kẻ tấn công khai thác lỗ hổng đó. Mô hình giúp nghiên cứu virus, về mặt lý thuyết, cũng có thể giúp thiết kế một chủng nguy hiểm hơn.

"Nghiên cứu khoa học và chế tạo vũ khí sinh học trông rất giống nhau," Wildeford nói.

OpenAI cho biết chỉ cấp quyền truy cập GPT-Rosalind cho các tổ chức có "kiểm soát nội bộ chặt chẽ." Anthropic thì hợp tác với các cơ quan chính phủ Mỹ để dùng Mythos vá lỗ hổng an ninh mạng. Tuy nhiên, Steph Batalis từ Trung tâm Nghiên cứu An ninh và Công nghệ Mới nổi (CSET) cho rằng việc xác định ai là nhà nghiên cứu "hợp lệ" trở nên khó hơn nhiều bên ngoài các tổ chức Mỹ, gây ra lo ngại về sự thiếu công bằng với cộng đồng nghiên cứu quốc tế.

Mô hình nguồn mở sẽ thay đổi cuộc chơi

Một yếu tố khác khiến bức tranh phức tạp hơn là các mô hình nguồn mở, tức những mô hình có thể tải về và dùng miễn phí. Theo Epoch AI, các mô hình nguồn mở thường đi sau mô hình độc quyền từ 3 đến 7 tháng. Nghĩa là đến cuối năm nay, một mô hình có sức mạnh tương đương GPT-Rosalind hay Mythos hoàn toàn có thể xuất hiện trên web mở.

Điều đó khiến lợi thế kiểm soát của các công ty phương Tây mỏng dần. Hồi tháng 11, Anthropic từng phát hiện và chặn một nhóm được nhà nước Trung Quốc hỗ trợ đang sử dụng mô hình trả phí của họ. Nếu mô hình tương đương có sẵn miễn phí, đòn bẩy đó không còn nữa.

Ngoài ra, một số người dùng trái phép được cho là đã tìm cách tiếp cận Claude Mythos mà không qua kiểm soát.

Mythos và GPT-Rosalind hiện là ngưỡng tối thiểu của AI tiên tiến, không phải đỉnh cao. Và cuộc đua vẫn đang tăng tốc.

"Tôi không biết làm thế nào để tránh khỏi sự cần thiết phải có sự can thiệp của chính phủ," Wildeford nói.

Câu hỏi không còn là liệu AI có đủ mạnh để gây ra rủi ro nghiêm trọng hay không. Câu hỏi bây giờ là: ai sẽ quyết định điều gì xảy ra tiếp theo?

Nguồn: TIME
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL3F1YS1uZ3V5LWhpZW0tZGUtY29uZy1iby1kYW5nLXRyby10aGFuaC1jaHVhbi1tdWMtbW9pLWN1YS1haS44MjI1Ny8=
Top