- Sử dụng chức năng
- Mục lục Xem nhanh
- Nút xem thêm với bài dài
Anthropic được cho là công ty AI tốt. Công ty có đạo đức. Công ty an toàn.
Nó được cho là khác với OpenAI, nhà sản xuất ChatGPT. Trên thực tế, tất cả những người sáng lập Anthropic đều từng làm việc tại OpenAI nhưng đã nghỉ việc một phần vì bất đồng về văn hóa an toàn ở đó và chuyển sang thành lập công ty riêng để xây dựng AI có trách nhiệm hơn.
Tuy nhiên, gần đây, Anthropic đã lên trang nhất các báo Mỹ vì những lý do không mấy cao quý: Nó đang phản đối dự luật mang tính bước ngoặt của California nhằm quản lý AI. Nó đang lấy tiền từ Google và Amazon theo cách khiến luật chống độc quyền phải giám sát chặt chẽ. Và nó đang bị cáo buộc là tích cực thu thập dữ liệu từ các trang web không được phép, gây tổn hại đến hiệu suất của chúng.
Manh mối tốt nhất có thể đến từ một bài báo năm 2022 do nhóm Anthropic viết khi công ty khởi nghiệp này mới chỉ một tuổi. Họ cảnh báo rằng các động cơ trong ngành AI — hãy nghĩ đến lợi nhuận và uy tín — sẽ thúc đẩy các công ty "triển khai các mô hình tạo ra quy mô lớn bất chấp sự không chắc chắn cao về phạm vi đầy đủ của những gì các mô hình này có khả năng làm được". Họ lập luận rằng, nếu chúng ta muốn AI an toàn, thì cấu trúc động cơ cơ bản của ngành cần phải thay đổi.
Vâng, ở tuổi lên ba, Anthropic giờ đã là một đứa trẻ mới biết đi, và nó đang trải qua nhiều nỗi đau khi trưởng thành giống như người anh em OpenAI. Theo một cách nào đó, chúng là những căng thẳng giống như những gì đã gây ra cho tất cả các công ty khởi nghiệp công nghệ ở Thung lũng Silicon bắt đầu với triết lý "đừng làm điều xấu". Tuy nhiên, bây giờ, những căng thẳng đã được tăng tốc.
Một công ty AI có thể muốn xây dựng các hệ thống an toàn, nhưng trong một ngành công nghiệp đầy rẫy sự cường điệu như vậy, công ty phải đối mặt với áp lực rất lớn để trở thành người đầu tiên ra mắt. Công ty cần thu hút các nhà đầu tư để cung cấp số tiền khổng lồ cần thiết để xây dựng các mô hình AI hàng đầu và để làm được điều đó, công ty cần phải làm họ hài lòng bằng cách chỉ ra con đường dẫn đến lợi nhuận khổng lồ. À, và rủi ro — nếu công nghệ gặp trục trặc — cao hơn nhiều so với hầu hết mọi công nghệ trước đây.
Vì vậy, một công ty như Anthropic phải vật lộn với những mâu thuẫn nội bộ sâu sắc và cuối cùng phải đối mặt với một câu hỏi hiện sinh: Liệu có thể điều hành một công ty AI thúc đẩy công nghệ tiên tiến đồng thời thực sự ưu tiên đạo đức và sự an toàn hay không?
“Tôi không nghĩ điều đó là có thể”, nhà tương lai học Amy Webb, CEO của Viện Future Today, đã nói cách đây vài tháng.
Nếu ngay cả Anthropic có tư tưởng cao cả cũng trở thành bài học kinh nghiệm về điều không thể đó, thì đã đến lúc cân nhắc một lựa chọn khác: Chính phủ cần vào cuộc và thay đổi cơ cấu khuyến khích của toàn bộ ngành.
Vì vậy, bạn có thể mong đợi rằng Anthropic sẽ hoan nghênh một dự luật do Thượng nghị sĩ tiểu bang California Scott Wiener (D-San Francisco) đưa ra, Đạo luật Mô hình Trí tuệ nhân tạo An toàn và Bảo mật cho Biên giới, còn được gọi là SB 1047. Đạo luật đó sẽ yêu cầu các công ty đào tạo các mô hình AI tiên tiến và đắt tiền nhất để tiến hành thử nghiệm an toàn và duy trì khả năng ngắt kết nối các mô hình nếu xảy ra sự cố an toàn.
Nhưng Anthropic đang vận động hành lang để làm loãng dự luật. Họ muốn xóa bỏ ý tưởng rằng chính phủ nên thực thi các tiêu chuẩn an toàn trước khi thảm họa xảy ra. "Thay vì quyết định các biện pháp mà các công ty nên thực hiện để ngăn ngừa thảm họa (vẫn còn là giả thuyết và hệ sinh thái vẫn đang lặp lại để xác định các biện pháp thực hành tốt nhất)", công ty thúc giục, "hãy tập trung dự luật vào việc buộc các công ty phải chịu trách nhiệm gây ra thảm họa thực sự".
Nói cách khác, đừng hành động cho đến khi mọi chuyện trở nên tồi tệ.
Theo một số cách, Anthropic dường như đang hành động giống như bất kỳ công ty vì lợi nhuận nào để bảo vệ lợi ích. Anthropic không chỉ có động cơ kinh tế — để tối đa hóa lợi nhuận, để cung cấp cho các đối tác như Amazon lợi nhuận đầu tư và tiếp tục huy động hàng tỷ đô la để xây dựng các mô hình tiên tiến hơn — mà còn có động cơ uy tín để tiếp tục phát hành các mô hình tiên tiến hơn để có thể duy trì danh tiếng là một công ty AI tiên tiến.
Điều này gây thất vọng lớn cho các nhóm chú trọng đến an toàn, những người mong đợi Anthropic sẽ hoan nghênh — chứ không phải phản đối — sự giám sát và trách nhiệm giải trình nhiều hơn.
Max Tegmark, chủ tịch của Viện Tương lai của Sự sống, nói với tôi rằng: “Anthropic đang cố gắng phá hoại cơ quan quản lý nhà nước được đề xuất và ngăn chặn việc thực thi cho đến khi thảm họa xảy ra — điều này giống như cấm FDA yêu cầu thử nghiệm lâm sàng vậy”.
Hoa Kỳ có các tiêu chuẩn an toàn có thể thực thi trong các ngành công nghiệp từ dược phẩm đến hàng không. Tuy nhiên, những người vận động hành lang công nghệ vẫn tiếp tục phản đối các quy định như vậy đối với sản phẩm của chính họ. Giống như các công ty truyền thông xã hội đã làm nhiều năm trước, họ tự nguyện cam kết về an toàn để xoa dịu những người lo ngại về rủi ro, sau đó đấu tranh quyết liệt để ngăn chặn những cam kết đó trở thành luật.
Trong những gì ông gọi là "một động thái thủ tục hoài nghi", Tegmark lưu ý rằng Anthropic cũng đã đưa ra các sửa đổi cho dự luật liên quan đến nhiệm vụ của mọi ủy ban trong cơ quan lập pháp, do đó trao cho mỗi ủy ban một cơ hội khác để giết chết nó. "Đây chính là chiến thuật của Big Tech", ông nói
Người phát ngôn của Anthropic nói phiên bản hiện tại của dự luật “có thể làm giảm lợi thế cạnh tranh của Hoa Kỳ trong phát triển AI” và rằng công ty muốn “tập trung lại dự luật vào vấn đề an toàn AI tiên tiến và tránh xa các phương pháp không đủ khả năng thích ứng với công nghệ đang phát triển nhanh chóng”.
Tất cả các công ty AI lớn đều thu thập dữ liệu công khai để sử dụng trong đào tạo, một hoạt động mà họ cho rằng được pháp luật bảo vệ theo luật sử dụng hợp lý. Nhưng việc thu thập dữ liệu gây tranh cãi và đang bị thách thức tại tòa án. Các tác giả nổi tiếng như Jonathan Franzen và các công ty truyền thông như tờ New York Times đã kiện OpenAI vì vi phạm bản quyền, nói rằng công ty AI đã sao chép bài viết mà không được phép. Đây là loại trận chiến pháp lý có thể dẫn đến việc làm lại luật bản quyền, với hậu quả cho tất cả các công ty AI.
Hơn nữa, việc thu thập dữ liệu vi phạm các điều khoản dịch vụ của một số trang web. YouTube cho biết việc đào tạo mô hình AI bằng video hoặc bản ghi chép của nền tảng là vi phạm các điều khoản của trang web. Tuy nhiên, đó chính xác là những gì Anthropic đã làm, theo một cuộc điều tra gần đây của Proof News.
Các nhà xuất bản web và người sáng tạo nội dung đang tức giận. Matt Barrie, giám đốc điều hành của Freelancer.com, một nền tảng kết nối những người làm việc tự do với khách hàng, cho biết Anthropic là "kẻ thu thập dữ liệu hung hăng nhất từ trước đến nay", tràn ngập trang web ngay cả sau khi đã được yêu cầu dừng lại. "Chúng tôi phải chặn chúng vì chúng không tuân thủ các quy tắc của Internet. Đây là hành vi thu thập dữ liệu nghiêm trọng [khiến] trang web chậm hơn đối với tất cả mọi người đang hoạt động trên đó và cuối cùng ảnh hưởng đến doanh thu của chúng tôi".
Dave Farina, người dẫn chương trình khoa học nổi tiếng trên YouTube có tên Giáo sư Dave Explains, đã nói với Proof News rằng "nguyên lý tuyệt đối của nó" là điều khiến anh ấy khó chịu. Khoảng 140 video của anh ấy đã được tải lên như một phần của tập dữ liệu mà Anthropic sử dụng để đào tạo. "Nếu bạn đang kiếm lợi từ công việc mà tôi đã làm [để xây dựng một sản phẩm] khiến tôi mất việc, hoặc những người như tôi mất việc, thì cần phải có một cuộc thảo luận trên bàn về tiền lương hoặc một số loại quy định", anh ấy nói.
Tại sao Anthropic lại chấp nhận rủi ro khi sử dụng dữ liệu lấy từ YouTube, khi nền tảng này đã rõ ràng cấm việc này và vi phạm bản quyền đang là chủ đề nóng hiện nay?
Bởi vì các công ty AI cần ngày càng nhiều dữ liệu chất lượng cao để tiếp tục thúc đẩy hiệu suất của các mô hình. Sử dụng dữ liệu tổng hợp, được tạo ra bởi các thuật toán, có vẻ không hứa hẹn. Nghiên cứu cho thấy rằng để ChatGPT tự ăn đuôi của chính nó sẽ dẫn đến kết quả kỳ lạ, không sử dụng được. (Một nhà văn đã đặt ra một thuật ngữ cho nó: "Hapsburg AI", theo tên của hoàng gia châu Âu nổi tiếng đã thoái hóa qua nhiều thế hệ cận huyết.) Điều cần thiết là dữ liệu mới do con người thực sự tạo ra, nhưng ngày càng khó để thu thập được dữ liệu đó.
Các nhà xuất bản đang chặn các trình thu thập dữ liệu web, dựng lên các bức tường thu phí hoặc cập nhật các điều khoản dịch vụ để cấm các công ty AI sử dụng dữ liệu làm thức ăn cho việc đào tạo. Một nghiên cứu mới từ Sáng kiến Nguồn gốc Dữ liệu liên kết với MIT đã xem xét ba tập dữ liệu chính — mỗi tập chứa hàng triệu cuốn sách, bài viết, video và dữ liệu web đã thu thập khác — được sử dụng để đào tạo AI. Hóa ra, 25 phần trăm dữ liệu chất lượng cao nhất trong các tập dữ liệu này hiện đang bị hạn chế. Các tác giả gọi đó là "một cuộc khủng hoảng đồng ý mới nổi". Một số, như OpenAI, đã bắt đầu phản ứng với điều này một phần bằng cách ký kết các thỏa thuận cấp phép với các phương tiện truyền thông, bao gồm cả Vox. Nhưng điều đó có thể chỉ giúp họ tiến xa đến vậy, vì vẫn còn nhiều thứ chính thức bị cấm.
Về mặt lý thuyết, các công ty AI có thể chấp nhận những giới hạn đối với sự tiến bộ đi kèm với việc hạn chế dữ liệu đào tạo đối với những gì có thể có nguồn gốc đạo đức, nhưng sau đó họ sẽ không duy trì được tính cạnh tranh. Vì vậy, các công ty như Anthropic được khuyến khích thực hiện những biện pháp cực đoan hơn để có được dữ liệu họ cần, ngay cả khi điều đó có nghĩa là thực hiện hành động đáng ngờ.
Anthropic thừa nhận rằng họ đã đào tạo chatbot Claude bằng cách sử dụng Pile, một tập dữ liệu bao gồm phụ đề từ 173.536 video trên YouTube. Khi tôi hỏi họ biện minh cho việc sử dụng này như thế nào, một phát ngôn viên của Anthropic đã nói với tôi, "Liên quan đến tập dữ liệu đang được đề cập trong The Pile, chúng tôi không thu thập dữ liệu YouTube để tạo ra tập dữ liệu đó và chúng tôi cũng không tạo ra tập dữ liệu đó." (Điều đó nhắc lại những gì Anthropic đã nói với Proof News trước đây: "[W]e'd phải giới thiệu bạn đến các tác giả của The Pile.")
Ý nghĩa là vì Anthropic không tạo ra tập dữ liệu, nên họ có thể sử dụng nó. Nhưng có vẻ không công bằng khi đổ toàn bộ trách nhiệm cho các tác giả Pile — một nhóm phi lợi nhuận có mục tiêu tạo ra một tập dữ liệu nguồn mở mà các nhà nghiên cứu có thể nghiên cứu — nếu Anthropic sử dụng dữ liệu của YouTube theo cách vi phạm các điều khoản của nền tảng.
“Các công ty có lẽ nên tự mình thực hiện thẩm định. Họ đang sử dụng điều này cho mục đích thương mại”, Shayne Longpre, tác giả chính của nghiên cứu Sáng kiến Nguồn gốc Dữ liệu cho biết. Ông đã đối chiếu điều đó với những người sáng tạo ra Pile và nhiều học giả đã sử dụng tập dữ liệu để tiến hành nghiên cứu. “Mục đích học thuật rõ ràng khác biệt với mục đích thương mại và có thể có các chuẩn mực khác nhau”.
Đó là lý do tại sao OpenAI, ban đầu được thành lập như một tổ chức phi lợi nhuận, phải tạo ra một nhánh vì lợi nhuận và hợp tác với Microsoft. Và đó là lý do tại sao Anthropic cuối cùng đã nhận được khoản đầu tư hàng tỷ đô la từ Amazon và Google.
Những thỏa thuận như thế này luôn đi kèm với rủi ro. Các gã khổng lồ công nghệ muốn thấy lợi nhuận nhanh chóng từ khoản đầu tư và tối đa hóa lợi nhuận. Để họ hài lòng, các công ty AI có thể cảm thấy áp lực khi triển khai một mô hình AI tiên tiến ngay cả khi họ không chắc chắn rằng nó an toàn.
Các quan hệ đối tác cũng làm dấy lên nỗi ám ảnh về độc quyền — sự tập trung quyền lực kinh tế. Các khoản đầu tư của Anthropic từ Google và Amazon đã dẫn đến một cuộc điều tra của Ủy ban Thương mại Liên bang và hiện đang thu hút sự giám sát chống độc quyền tại Vương quốc Anh, nơi một cơ quan quản lý người tiêu dùng đang điều tra xem liệu có "tình huống sáp nhập có liên quan" có thể dẫn đến "giảm đáng kể sự cạnh tranh" hay không.
Người phát ngôn của Anthropic cho biết công ty có ý định hợp tác với cơ quan này và cung cấp cho họ bức tranh toàn cảnh về các khoản đầu tư. "Chúng tôi là một công ty độc lập và không có quan hệ đối tác chiến lược hoặc mối quan hệ với nhà đầu tư nào làm giảm tính độc lập của quản trị doanh nghiệp hoặc quyền tự do hợp tác với những bên khác của chúng tôi", người phát ngôn cho biết.
Tuy nhiên, kinh nghiệm gần đây cho thấy cơ cấu quản trị độc đáo của các công ty AI có thể không đủ để ngăn chặn điều tồi tệ nhất.
Không giống như OpenAI, Anthropic chưa bao giờ trao cho Google hay Amazon một ghế trong hội đồng quản trị hoặc bất kỳ quyền quan sát nào đối với công ty. Nhưng, rất giống với OpenAI, Anthropic đang dựa vào một cấu trúc quản trị doanh nghiệp khác thường do chính công ty thiết kế. OpenAI ban đầu đã tạo ra một hội đồng quản trị có sứ mệnh lý tưởng là bảo vệ lợi ích tốt nhất của nhân loại, không phải làm hài lòng các cổ đông. Anthropic đã tạo ra một cấu trúc quản trị thử nghiệm, Quỹ tín thác lợi ích dài hạn, một nhóm người không có lợi ích tài chính trong công ty nhưng cuối cùng sẽ nắm quyền kiểm soát đa số đối với công ty, vì họ sẽ được trao quyền bầu và bãi nhiệm ba trong số năm giám đốc công ty. (Quyền hạn này sẽ dần được đưa vào khi công ty đạt được một số cột mốc nhất định.)
Nhưng chủ nghĩa lý tưởng của Quỹ tín thác cũng có giới hạn: Quỹ phải "đảm bảo rằng Anthropic cân bằng một cách có trách nhiệm giữa lợi ích tài chính của các cổ đông với lợi ích của những người bị ảnh hưởng bởi hành vi của Anthropic và mục đích vì lợi ích công cộng của chúng tôi". Thêm vào đó, Anthropic cho biết , "chúng tôi cũng đã thiết kế một loạt các điều khoản 'an toàn' cho phép thay đổi Quỹ tín thác và quyền hạn của Quỹ mà không cần sự đồng ý của Người ủy thác nếu có đủ số lượng lớn các cổ đông đồng ý".
Và nếu chúng ta học được điều gì từ cuộc đảo chính phòng họp của OpenAI năm ngoái , thì đó là cấu trúc quản trị có thể và sẽ thay đổi. Khi hội đồng quản trị OpenAI cố gắng bảo vệ nhân loại bằng cách lật đổ CEO Sam Altman, họ đã phải đối mặt với sự phản kháng dữ dội. Chỉ trong vài ngày, Altman đã giành lại được vai trò cũ, các thành viên hội đồng quản trị đã sa thải ông đã ra đi và thành phần của hội đồng quản trị đã thay đổi theo hướng có lợi cho Altman. Hơn nữa, OpenAI đã trao cho Microsoft một ghế quan sát viên trong hội đồng quản trị, cho phép công ty này tiếp cận thông tin mật và có thể gây áp lực tại các cuộc họp của hội đồng quản trị. Chỉ khi điều đó làm dấy lên (bạn đoán đúng rồi đấy) sự giám sát chống độc quyền thì Microsoft mới từ bỏ ghế này .
Carroll Wainwright, người đã rời khỏi OpenAI năm nay, nói: "Tôi nghĩ điều đó cho thấy hội đồng quản trị không có đủ sức mạnh như người ta mong đợi" . "Điều đó khiến tôi đặt câu hỏi liệu hội đồng quản trị có thể chịu trách nhiệm với tổ chức tốt như thế nào".
Đó là lý do tại sao ông và một số người khác đã công bố một đề xuất yêu cầu các công ty AI cấp cho họ "quyền cảnh báo về trí tuệ nhân tạo tiên tiến". Theo đề xuất : "Các công ty AI có động cơ tài chính mạnh mẽ để tránh sự giám sát hiệu quả và chúng tôi không tin rằng các cấu trúc quản trị doanh nghiệp riêng biệt là đủ để thay đổi điều này".
Nghe có vẻ rất giống với những gì một nhân vật khác trong lĩnh vực AI đã nói với Vox vào năm ngoái: "Tôi khá hoài nghi về những điều liên quan đến quản trị doanh nghiệp vì tôi nghĩ rằng động cơ của các tập đoàn bị bóp méo một cách khủng khiếp, bao gồm cả chúng tôi". Đó là lời của Jack Clark, giám đốc chính sách tại Anthropic.
Khi tôi hỏi Webb, nhà tương lai học, rằng một hệ sinh thái kinh doanh AI tốt hơn có thể trông như thế nào, bà ấy nói rằng nó sẽ bao gồm cả biện pháp trừng phạt và chế tài: các ưu đãi tích cực, như giảm thuế cho các công ty chứng minh rằng họ đang duy trì các tiêu chuẩn an toàn cao nhất; và các ưu đãi tiêu cực, như quy định sẽ phạt các công ty nếu họ triển khai các thuật toán thiên vị.
Dịch từ VOX
Nó được cho là khác với OpenAI, nhà sản xuất ChatGPT. Trên thực tế, tất cả những người sáng lập Anthropic đều từng làm việc tại OpenAI nhưng đã nghỉ việc một phần vì bất đồng về văn hóa an toàn ở đó và chuyển sang thành lập công ty riêng để xây dựng AI có trách nhiệm hơn.
Tuy nhiên, gần đây, Anthropic đã lên trang nhất các báo Mỹ vì những lý do không mấy cao quý: Nó đang phản đối dự luật mang tính bước ngoặt của California nhằm quản lý AI. Nó đang lấy tiền từ Google và Amazon theo cách khiến luật chống độc quyền phải giám sát chặt chẽ. Và nó đang bị cáo buộc là tích cực thu thập dữ liệu từ các trang web không được phép, gây tổn hại đến hiệu suất của chúng.
Có chuyện gì thế?
Manh mối tốt nhất có thể đến từ một bài báo năm 2022 do nhóm Anthropic viết khi công ty khởi nghiệp này mới chỉ một tuổi. Họ cảnh báo rằng các động cơ trong ngành AI — hãy nghĩ đến lợi nhuận và uy tín — sẽ thúc đẩy các công ty "triển khai các mô hình tạo ra quy mô lớn bất chấp sự không chắc chắn cao về phạm vi đầy đủ của những gì các mô hình này có khả năng làm được". Họ lập luận rằng, nếu chúng ta muốn AI an toàn, thì cấu trúc động cơ cơ bản của ngành cần phải thay đổi.
Vâng, ở tuổi lên ba, Anthropic giờ đã là một đứa trẻ mới biết đi, và nó đang trải qua nhiều nỗi đau khi trưởng thành giống như người anh em OpenAI. Theo một cách nào đó, chúng là những căng thẳng giống như những gì đã gây ra cho tất cả các công ty khởi nghiệp công nghệ ở Thung lũng Silicon bắt đầu với triết lý "đừng làm điều xấu". Tuy nhiên, bây giờ, những căng thẳng đã được tăng tốc.
Một công ty AI có thể muốn xây dựng các hệ thống an toàn, nhưng trong một ngành công nghiệp đầy rẫy sự cường điệu như vậy, công ty phải đối mặt với áp lực rất lớn để trở thành người đầu tiên ra mắt. Công ty cần thu hút các nhà đầu tư để cung cấp số tiền khổng lồ cần thiết để xây dựng các mô hình AI hàng đầu và để làm được điều đó, công ty cần phải làm họ hài lòng bằng cách chỉ ra con đường dẫn đến lợi nhuận khổng lồ. À, và rủi ro — nếu công nghệ gặp trục trặc — cao hơn nhiều so với hầu hết mọi công nghệ trước đây.
Vì vậy, một công ty như Anthropic phải vật lộn với những mâu thuẫn nội bộ sâu sắc và cuối cùng phải đối mặt với một câu hỏi hiện sinh: Liệu có thể điều hành một công ty AI thúc đẩy công nghệ tiên tiến đồng thời thực sự ưu tiên đạo đức và sự an toàn hay không?
“Tôi không nghĩ điều đó là có thể”, nhà tương lai học Amy Webb, CEO của Viện Future Today, đã nói cách đây vài tháng.
Nếu ngay cả Anthropic có tư tưởng cao cả cũng trở thành bài học kinh nghiệm về điều không thể đó, thì đã đến lúc cân nhắc một lựa chọn khác: Chính phủ cần vào cuộc và thay đổi cơ cấu khuyến khích của toàn bộ ngành.
Động lực để tiếp tục xây dựng và triển khai các mô hình AI
Anthropic luôn tự nhận mình là công ty đặt sự an toàn lên hàng đầu. Các nhà lãnh đạo của công ty cho biết họ rất coi trọng rủi ro thảm khốc hoặc rủi ro hiện sinh từ AI. Tổng giám đốc điều hành Dario Amodei đã làm chứng trước các thượng nghị sĩ , đưa ra lập luận rằng các mô hình AI đủ mạnh để "tạo ra sự hủy diệt trên diện rộng" và làm đảo lộn cán cân quyền lực quốc tế có thể ra đời sớm nhất là vào năm 2025. (Tiết lộ: Một trong những nhà đầu tư ban đầu của Anthropic là James McClave, người mà Quỹ BEMC của ông giúp tài trợ cho Future Perfect).Vì vậy, bạn có thể mong đợi rằng Anthropic sẽ hoan nghênh một dự luật do Thượng nghị sĩ tiểu bang California Scott Wiener (D-San Francisco) đưa ra, Đạo luật Mô hình Trí tuệ nhân tạo An toàn và Bảo mật cho Biên giới, còn được gọi là SB 1047. Đạo luật đó sẽ yêu cầu các công ty đào tạo các mô hình AI tiên tiến và đắt tiền nhất để tiến hành thử nghiệm an toàn và duy trì khả năng ngắt kết nối các mô hình nếu xảy ra sự cố an toàn.
Nhưng Anthropic đang vận động hành lang để làm loãng dự luật. Họ muốn xóa bỏ ý tưởng rằng chính phủ nên thực thi các tiêu chuẩn an toàn trước khi thảm họa xảy ra. "Thay vì quyết định các biện pháp mà các công ty nên thực hiện để ngăn ngừa thảm họa (vẫn còn là giả thuyết và hệ sinh thái vẫn đang lặp lại để xác định các biện pháp thực hành tốt nhất)", công ty thúc giục, "hãy tập trung dự luật vào việc buộc các công ty phải chịu trách nhiệm gây ra thảm họa thực sự".
Nói cách khác, đừng hành động cho đến khi mọi chuyện trở nên tồi tệ.
Theo một số cách, Anthropic dường như đang hành động giống như bất kỳ công ty vì lợi nhuận nào để bảo vệ lợi ích. Anthropic không chỉ có động cơ kinh tế — để tối đa hóa lợi nhuận, để cung cấp cho các đối tác như Amazon lợi nhuận đầu tư và tiếp tục huy động hàng tỷ đô la để xây dựng các mô hình tiên tiến hơn — mà còn có động cơ uy tín để tiếp tục phát hành các mô hình tiên tiến hơn để có thể duy trì danh tiếng là một công ty AI tiên tiến.
Điều này gây thất vọng lớn cho các nhóm chú trọng đến an toàn, những người mong đợi Anthropic sẽ hoan nghênh — chứ không phải phản đối — sự giám sát và trách nhiệm giải trình nhiều hơn.
Max Tegmark, chủ tịch của Viện Tương lai của Sự sống, nói với tôi rằng: “Anthropic đang cố gắng phá hoại cơ quan quản lý nhà nước được đề xuất và ngăn chặn việc thực thi cho đến khi thảm họa xảy ra — điều này giống như cấm FDA yêu cầu thử nghiệm lâm sàng vậy”.
Hoa Kỳ có các tiêu chuẩn an toàn có thể thực thi trong các ngành công nghiệp từ dược phẩm đến hàng không. Tuy nhiên, những người vận động hành lang công nghệ vẫn tiếp tục phản đối các quy định như vậy đối với sản phẩm của chính họ. Giống như các công ty truyền thông xã hội đã làm nhiều năm trước, họ tự nguyện cam kết về an toàn để xoa dịu những người lo ngại về rủi ro, sau đó đấu tranh quyết liệt để ngăn chặn những cam kết đó trở thành luật.
Trong những gì ông gọi là "một động thái thủ tục hoài nghi", Tegmark lưu ý rằng Anthropic cũng đã đưa ra các sửa đổi cho dự luật liên quan đến nhiệm vụ của mọi ủy ban trong cơ quan lập pháp, do đó trao cho mỗi ủy ban một cơ hội khác để giết chết nó. "Đây chính là chiến thuật của Big Tech", ông nói
Người phát ngôn của Anthropic nói phiên bản hiện tại của dự luật “có thể làm giảm lợi thế cạnh tranh của Hoa Kỳ trong phát triển AI” và rằng công ty muốn “tập trung lại dự luật vào vấn đề an toàn AI tiên tiến và tránh xa các phương pháp không đủ khả năng thích ứng với công nghệ đang phát triển nhanh chóng”.
Động lực để nuốt trọn dữ liệu của mọi người
Đây là một căng thẳng khác ở trung tâm của quá trình phát triển AI: Các công ty cần thu thập hàng đống văn bản chất lượng cao từ sách và trang web để đào tạo hệ thống. Nhưng văn bản đó do con người tạo ra và con người thường không thích công trình bị sử dụng mà không có sự đồng ý.Tất cả các công ty AI lớn đều thu thập dữ liệu công khai để sử dụng trong đào tạo, một hoạt động mà họ cho rằng được pháp luật bảo vệ theo luật sử dụng hợp lý. Nhưng việc thu thập dữ liệu gây tranh cãi và đang bị thách thức tại tòa án. Các tác giả nổi tiếng như Jonathan Franzen và các công ty truyền thông như tờ New York Times đã kiện OpenAI vì vi phạm bản quyền, nói rằng công ty AI đã sao chép bài viết mà không được phép. Đây là loại trận chiến pháp lý có thể dẫn đến việc làm lại luật bản quyền, với hậu quả cho tất cả các công ty AI.
Hơn nữa, việc thu thập dữ liệu vi phạm các điều khoản dịch vụ của một số trang web. YouTube cho biết việc đào tạo mô hình AI bằng video hoặc bản ghi chép của nền tảng là vi phạm các điều khoản của trang web. Tuy nhiên, đó chính xác là những gì Anthropic đã làm, theo một cuộc điều tra gần đây của Proof News.
Các nhà xuất bản web và người sáng tạo nội dung đang tức giận. Matt Barrie, giám đốc điều hành của Freelancer.com, một nền tảng kết nối những người làm việc tự do với khách hàng, cho biết Anthropic là "kẻ thu thập dữ liệu hung hăng nhất từ trước đến nay", tràn ngập trang web ngay cả sau khi đã được yêu cầu dừng lại. "Chúng tôi phải chặn chúng vì chúng không tuân thủ các quy tắc của Internet. Đây là hành vi thu thập dữ liệu nghiêm trọng [khiến] trang web chậm hơn đối với tất cả mọi người đang hoạt động trên đó và cuối cùng ảnh hưởng đến doanh thu của chúng tôi".
Dave Farina, người dẫn chương trình khoa học nổi tiếng trên YouTube có tên Giáo sư Dave Explains, đã nói với Proof News rằng "nguyên lý tuyệt đối của nó" là điều khiến anh ấy khó chịu. Khoảng 140 video của anh ấy đã được tải lên như một phần của tập dữ liệu mà Anthropic sử dụng để đào tạo. "Nếu bạn đang kiếm lợi từ công việc mà tôi đã làm [để xây dựng một sản phẩm] khiến tôi mất việc, hoặc những người như tôi mất việc, thì cần phải có một cuộc thảo luận trên bàn về tiền lương hoặc một số loại quy định", anh ấy nói.
Tại sao Anthropic lại chấp nhận rủi ro khi sử dụng dữ liệu lấy từ YouTube, khi nền tảng này đã rõ ràng cấm việc này và vi phạm bản quyền đang là chủ đề nóng hiện nay?
Bởi vì các công ty AI cần ngày càng nhiều dữ liệu chất lượng cao để tiếp tục thúc đẩy hiệu suất của các mô hình. Sử dụng dữ liệu tổng hợp, được tạo ra bởi các thuật toán, có vẻ không hứa hẹn. Nghiên cứu cho thấy rằng để ChatGPT tự ăn đuôi của chính nó sẽ dẫn đến kết quả kỳ lạ, không sử dụng được. (Một nhà văn đã đặt ra một thuật ngữ cho nó: "Hapsburg AI", theo tên của hoàng gia châu Âu nổi tiếng đã thoái hóa qua nhiều thế hệ cận huyết.) Điều cần thiết là dữ liệu mới do con người thực sự tạo ra, nhưng ngày càng khó để thu thập được dữ liệu đó.
Các nhà xuất bản đang chặn các trình thu thập dữ liệu web, dựng lên các bức tường thu phí hoặc cập nhật các điều khoản dịch vụ để cấm các công ty AI sử dụng dữ liệu làm thức ăn cho việc đào tạo. Một nghiên cứu mới từ Sáng kiến Nguồn gốc Dữ liệu liên kết với MIT đã xem xét ba tập dữ liệu chính — mỗi tập chứa hàng triệu cuốn sách, bài viết, video và dữ liệu web đã thu thập khác — được sử dụng để đào tạo AI. Hóa ra, 25 phần trăm dữ liệu chất lượng cao nhất trong các tập dữ liệu này hiện đang bị hạn chế. Các tác giả gọi đó là "một cuộc khủng hoảng đồng ý mới nổi". Một số, như OpenAI, đã bắt đầu phản ứng với điều này một phần bằng cách ký kết các thỏa thuận cấp phép với các phương tiện truyền thông, bao gồm cả Vox. Nhưng điều đó có thể chỉ giúp họ tiến xa đến vậy, vì vẫn còn nhiều thứ chính thức bị cấm.
Về mặt lý thuyết, các công ty AI có thể chấp nhận những giới hạn đối với sự tiến bộ đi kèm với việc hạn chế dữ liệu đào tạo đối với những gì có thể có nguồn gốc đạo đức, nhưng sau đó họ sẽ không duy trì được tính cạnh tranh. Vì vậy, các công ty như Anthropic được khuyến khích thực hiện những biện pháp cực đoan hơn để có được dữ liệu họ cần, ngay cả khi điều đó có nghĩa là thực hiện hành động đáng ngờ.
Anthropic thừa nhận rằng họ đã đào tạo chatbot Claude bằng cách sử dụng Pile, một tập dữ liệu bao gồm phụ đề từ 173.536 video trên YouTube. Khi tôi hỏi họ biện minh cho việc sử dụng này như thế nào, một phát ngôn viên của Anthropic đã nói với tôi, "Liên quan đến tập dữ liệu đang được đề cập trong The Pile, chúng tôi không thu thập dữ liệu YouTube để tạo ra tập dữ liệu đó và chúng tôi cũng không tạo ra tập dữ liệu đó." (Điều đó nhắc lại những gì Anthropic đã nói với Proof News trước đây: "[W]e'd phải giới thiệu bạn đến các tác giả của The Pile.")
Ý nghĩa là vì Anthropic không tạo ra tập dữ liệu, nên họ có thể sử dụng nó. Nhưng có vẻ không công bằng khi đổ toàn bộ trách nhiệm cho các tác giả Pile — một nhóm phi lợi nhuận có mục tiêu tạo ra một tập dữ liệu nguồn mở mà các nhà nghiên cứu có thể nghiên cứu — nếu Anthropic sử dụng dữ liệu của YouTube theo cách vi phạm các điều khoản của nền tảng.
“Các công ty có lẽ nên tự mình thực hiện thẩm định. Họ đang sử dụng điều này cho mục đích thương mại”, Shayne Longpre, tác giả chính của nghiên cứu Sáng kiến Nguồn gốc Dữ liệu cho biết. Ông đã đối chiếu điều đó với những người sáng tạo ra Pile và nhiều học giả đã sử dụng tập dữ liệu để tiến hành nghiên cứu. “Mục đích học thuật rõ ràng khác biệt với mục đích thương mại và có thể có các chuẩn mực khác nhau”.
Động lực để kiếm được càng nhiều tiền càng tốt
Ngày nay, để xây dựng một mô hình AI tiên tiến, bạn cần rất nhiều sức mạnh tính toán — và điều đó cực kỳ tốn kém. Để thu thập hàng trăm triệu đô la cần thiết, các công ty AI phải hợp tác với những gã khổng lồ công nghệ.Đó là lý do tại sao OpenAI, ban đầu được thành lập như một tổ chức phi lợi nhuận, phải tạo ra một nhánh vì lợi nhuận và hợp tác với Microsoft. Và đó là lý do tại sao Anthropic cuối cùng đã nhận được khoản đầu tư hàng tỷ đô la từ Amazon và Google.
Những thỏa thuận như thế này luôn đi kèm với rủi ro. Các gã khổng lồ công nghệ muốn thấy lợi nhuận nhanh chóng từ khoản đầu tư và tối đa hóa lợi nhuận. Để họ hài lòng, các công ty AI có thể cảm thấy áp lực khi triển khai một mô hình AI tiên tiến ngay cả khi họ không chắc chắn rằng nó an toàn.
Các quan hệ đối tác cũng làm dấy lên nỗi ám ảnh về độc quyền — sự tập trung quyền lực kinh tế. Các khoản đầu tư của Anthropic từ Google và Amazon đã dẫn đến một cuộc điều tra của Ủy ban Thương mại Liên bang và hiện đang thu hút sự giám sát chống độc quyền tại Vương quốc Anh, nơi một cơ quan quản lý người tiêu dùng đang điều tra xem liệu có "tình huống sáp nhập có liên quan" có thể dẫn đến "giảm đáng kể sự cạnh tranh" hay không.
Người phát ngôn của Anthropic cho biết công ty có ý định hợp tác với cơ quan này và cung cấp cho họ bức tranh toàn cảnh về các khoản đầu tư. "Chúng tôi là một công ty độc lập và không có quan hệ đối tác chiến lược hoặc mối quan hệ với nhà đầu tư nào làm giảm tính độc lập của quản trị doanh nghiệp hoặc quyền tự do hợp tác với những bên khác của chúng tôi", người phát ngôn cho biết.
Tuy nhiên, kinh nghiệm gần đây cho thấy cơ cấu quản trị độc đáo của các công ty AI có thể không đủ để ngăn chặn điều tồi tệ nhất.
Không giống như OpenAI, Anthropic chưa bao giờ trao cho Google hay Amazon một ghế trong hội đồng quản trị hoặc bất kỳ quyền quan sát nào đối với công ty. Nhưng, rất giống với OpenAI, Anthropic đang dựa vào một cấu trúc quản trị doanh nghiệp khác thường do chính công ty thiết kế. OpenAI ban đầu đã tạo ra một hội đồng quản trị có sứ mệnh lý tưởng là bảo vệ lợi ích tốt nhất của nhân loại, không phải làm hài lòng các cổ đông. Anthropic đã tạo ra một cấu trúc quản trị thử nghiệm, Quỹ tín thác lợi ích dài hạn, một nhóm người không có lợi ích tài chính trong công ty nhưng cuối cùng sẽ nắm quyền kiểm soát đa số đối với công ty, vì họ sẽ được trao quyền bầu và bãi nhiệm ba trong số năm giám đốc công ty. (Quyền hạn này sẽ dần được đưa vào khi công ty đạt được một số cột mốc nhất định.)
Nhưng chủ nghĩa lý tưởng của Quỹ tín thác cũng có giới hạn: Quỹ phải "đảm bảo rằng Anthropic cân bằng một cách có trách nhiệm giữa lợi ích tài chính của các cổ đông với lợi ích của những người bị ảnh hưởng bởi hành vi của Anthropic và mục đích vì lợi ích công cộng của chúng tôi". Thêm vào đó, Anthropic cho biết , "chúng tôi cũng đã thiết kế một loạt các điều khoản 'an toàn' cho phép thay đổi Quỹ tín thác và quyền hạn của Quỹ mà không cần sự đồng ý của Người ủy thác nếu có đủ số lượng lớn các cổ đông đồng ý".
Và nếu chúng ta học được điều gì từ cuộc đảo chính phòng họp của OpenAI năm ngoái , thì đó là cấu trúc quản trị có thể và sẽ thay đổi. Khi hội đồng quản trị OpenAI cố gắng bảo vệ nhân loại bằng cách lật đổ CEO Sam Altman, họ đã phải đối mặt với sự phản kháng dữ dội. Chỉ trong vài ngày, Altman đã giành lại được vai trò cũ, các thành viên hội đồng quản trị đã sa thải ông đã ra đi và thành phần của hội đồng quản trị đã thay đổi theo hướng có lợi cho Altman. Hơn nữa, OpenAI đã trao cho Microsoft một ghế quan sát viên trong hội đồng quản trị, cho phép công ty này tiếp cận thông tin mật và có thể gây áp lực tại các cuộc họp của hội đồng quản trị. Chỉ khi điều đó làm dấy lên (bạn đoán đúng rồi đấy) sự giám sát chống độc quyền thì Microsoft mới từ bỏ ghế này .
Carroll Wainwright, người đã rời khỏi OpenAI năm nay, nói: "Tôi nghĩ điều đó cho thấy hội đồng quản trị không có đủ sức mạnh như người ta mong đợi" . "Điều đó khiến tôi đặt câu hỏi liệu hội đồng quản trị có thể chịu trách nhiệm với tổ chức tốt như thế nào".
Đó là lý do tại sao ông và một số người khác đã công bố một đề xuất yêu cầu các công ty AI cấp cho họ "quyền cảnh báo về trí tuệ nhân tạo tiên tiến". Theo đề xuất : "Các công ty AI có động cơ tài chính mạnh mẽ để tránh sự giám sát hiệu quả và chúng tôi không tin rằng các cấu trúc quản trị doanh nghiệp riêng biệt là đủ để thay đổi điều này".
Nghe có vẻ rất giống với những gì một nhân vật khác trong lĩnh vực AI đã nói với Vox vào năm ngoái: "Tôi khá hoài nghi về những điều liên quan đến quản trị doanh nghiệp vì tôi nghĩ rằng động cơ của các tập đoàn bị bóp méo một cách khủng khiếp, bao gồm cả chúng tôi". Đó là lời của Jack Clark, giám đốc chính sách tại Anthropic.
Nếu các công ty AI không giải quyết được vấn đề này thì ai sẽ làm?
Nhóm Anthropic đã đúng ngay từ đầu khi họ công bố bài báo đó vào năm 2022: Áp lực của thị trường quá tàn khốc. Các công ty AI tư nhân không có động lực để thay đổi điều đó, vì vậy chính phủ cần thay đổi cấu trúc khuyến khích cơ bản mà tất cả các công ty này hoạt động.Khi tôi hỏi Webb, nhà tương lai học, rằng một hệ sinh thái kinh doanh AI tốt hơn có thể trông như thế nào, bà ấy nói rằng nó sẽ bao gồm cả biện pháp trừng phạt và chế tài: các ưu đãi tích cực, như giảm thuế cho các công ty chứng minh rằng họ đang duy trì các tiêu chuẩn an toàn cao nhất; và các ưu đãi tiêu cực, như quy định sẽ phạt các công ty nếu họ triển khai các thuật toán thiên vị.
Dịch từ VOX