Kiện OpenAI: Những vấn đề đáng sợ đằng sau vụ kiện tụng

Mới đây, Công ty Luật Clarkson có trụ sở tại California (Clarkson Law Firm) đã đệ đơn khiếu nại dài 157 trang lên Tòa án Lưu động Quận phía Bắc California chống lại công ty trí tuệ nhân tạo OpenAI và đối tác của họ là Microsoft trong một vụ kiện tập thể.
Trong bản cáo trạng, các nguyên đơn cáo buộc OpenAI và Microsoft đã thu thập, sử dụng và chia sẻ trái phép thông tin cá nhân của hàng trăm triệu người dùng Internet, bao gồm cả thông tin của trẻ em, khi phát triển, tiếp thị và vận hành các sản phẩm AI của họ. Nguyên đơn cho rằng các hoạt động nêu trên của bị đơn đã vi phạm một số luật. Theo đó, nguyên đơn yêu cầu tòa ra lệnh cấm bị đơn và bồi thường thiệt hại cho bị đơn.
Kiện OpenAI: Những vấn đề đáng sợ đằng sau vụ kiện tụng
CEO OpenAI Sam Altman tại phiên điều trần trước Quốc hội Mỹ
Vì vụ kiện này là vụ kiện có ảnh hưởng đầu tiên mà ChatGPT phải đối mặt kể từ khi nó trở nên phổ biến, nên nó được gọi là "trường hợp đầu tiên của ChatG-PT" trong nhiều bản tin. Tuy nhiên, xét cho đúng, cái tên gọi “trường hợp đầu tiên” này có thể không phù hợp. Có điều, gần như cùng lúc với việc công ty luật Clarkson đệ đơn kiện, các nhà văn Paul Tremblay và Mona Awad đã đệ đơn kiện OpenAI lên tòa án liên bang San Francisco. Chỉ là vụ kiện do Clarksons LLP khởi xướng đã được công bố rộng rãi hơn trên các phương tiện truyền thông (có lẽ do chiến lược kiện tụng của công ty luật) nên tác động của nó lớn hơn. Mặt khác, đối tượng của vụ kiện này không chỉ giới hạn ở ChatGPT mà còn nhiều sản phẩm OpenAI bao gồm ChatGPT, Dall-E và Codex. Dựa trên điều này, sẽ phù hợp hơn khi gọi vụ kiện này là "Trường hợp OpenAI đầu tiên" hơn là "Trường hợp đầu tiên ChatGPT".

AI: Những phát minh tốt nhất và tồi tệ nhất​

Vào tháng 10 năm 2016, nhà vật lý nổi tiếng Stephen Hawking đã phát biểu trong một bài phát biểu: "Việc tạo ra thành công AI có thể là sự kiện lớn nhất trong lịch sử nền văn minh của chúng ta. Nhưng nó cũng có thể là sự kiện cuối cùng, trừ khi chúng ta học cách tránh rủi ro". quan điểm của ông, “sự trỗi dậy của trí tuệ nhân tạo mạnh mẽ có thể là điều tốt nhất từng xảy ra với nhân loại, nhưng nó cũng có thể là điều tồi tệ nhất từng xảy ra.”
Ở phần đầu của bản cáo trạng do Công ty luật Clarkson đệ trình lên tòa án, phần giới thiệu được viết về tình hình cơ bản của vụ kiện tập thể này, trong đó trích dẫn nhận xét nổi tiếng của Hawking ở trên. Dưới con mắt của các luật sư đại diện cho vụ án, với sự thành công của các sản phẩm như ChatGPT, một cuộc chạy đua vũ trang AI khốc liệt đang được khởi động giữa các công ty công nghệ lớn. Trong khi thúc đẩy mạnh mẽ sự tiến bộ của công nghệ AI, nó cũng buộc mọi người phải nghiêm túc xem xét dự đoán của Hawking: Con người nên chọn con đường phát triển AI an toàn hơn, thịnh vượng hơn và bền vững hơn hay chọn con đường phát triển AI dẫn đến sự hủy diệt.
Bản cáo trạng chỉ ra rằng các sản phẩm và công nghệ của bị cáo chắc chắn có nhiều tiềm năng tốt, nhưng thật không may, trong khi họ có sức mạnh to lớn, họ không nhận ra sức mạnh hủy diệt mà nó chứa đựng.
Kiện OpenAI: Những vấn đề đáng sợ đằng sau vụ kiện tụng
Luật sư của các nguyên đơn đã trích dẫn một tuyên bố công khai của người đứng đầu bộ phận bảo mật của OpenAI. Bài phát biểu này cho thấy OpenAI từ lâu đã nhận ra rằng các sản phẩm AI của họ là "một công nghệ khá non nớt." Nếu không có các biện pháp phòng ngừa an ninh đầy đủ, sẽ rất liều lĩnh khi triển khai các mô hình AI một cách rầm rộ. Nhưng rõ ràng, cách hiểu trên của OpenAI không làm chậm quá trình nghiên cứu phát triển và triển khai AI của hãng này. Theo quan điểm của luật sư bên nguyên, chính sự thiếu hiểu biết và buông thả rủi ro này đã dẫn đến việc xâm phạm quyền riêng tư, quyền tài sản và các quyền khác của con người.
Luật sư của nguyên đơn chỉ ra rằng hành vi tìm kiếm lợi ích kinh tế bằng chi phí của người khác và công cộng của bị đơn là bất hợp pháp. Theo đó, họ kháng cáo yêu cầu bị đơn chấm dứt ngay các hành vi này, đồng thời để bị đơn đảm bảo rằng các sản phẩm trong tương lai của họ minh bạch (Transparency), có trách nhiệm giải trình (Accountability) và kiểm soát được (Control).

Đánh giá về sự phát triển của AI tại Hoa Kỳ​

Sau khi "Phần giới thiệu" kết thúc, bản cáo trạng đã xem xét sự phát triển của AI ở Hoa Kỳ - tuy nhiên, mặc dù tiêu đề là "Sự phát triển của AI ở Hoa Kỳ", nhưng tâm điểm chú ý hoàn toàn đổ dồn vào hai bị cáo OpenAI và Microsoft. Cụ thể, đánh giá này nhấn mạnh bốn sự thật cơ bản:

(1) Sự chuyển đổi của OpenAI từ một tổ chức phi lợi nhuận sang một công ty vì lợi nhuận​

Ban đầu, OpenAI được thành lập như một tổ chức nghiên cứu phi lợi nhuận với sứ mệnh đã nêu là thúc đẩy sự tiến bộ của con người một cách an toàn và có trách nhiệm. Tuy nhiên, kể từ năm 2019, chiến lược của OpenAI đã thay đổi 180 độ, từ một tổ chức phi lợi nhuận mở sang cơ cấu doanh nghiệp vì lợi nhuận và hợp tác với các nhà đầu tư bên ngoài, trong đó nổi tiếng nhất là Microsoft.
Từ quan điểm thương mại, sự chuyển đổi này của OpenAI là rất thành công. Chỉ trong vài năm, nó đã chuyển đổi từ một tổ chức nghiên cứu AI ít người biết đến thành một công ty trị giá 29 tỷ USD. Tuy nhiên, các luật sư của nguyên đơn chỉ ra rằng sự chuyển đổi này cũng mang lại rất nhiều vấn đề. Nhiều người lo ngại OpenAI sẽ đặt lợi ích tài chính ngắn hạn lên trên lợi ích con người, nhất là khi họ đột ngột thương mại hóa sản phẩm một cách rộng rãi khi đã biết là có rủi ro, có thể gây ra các vấn đề về đạo đức, an toàn và đạo đức.

(2) Sự phát triển của ChatGPT dựa vào việc bí mật lấy dữ liệu mạng​

Việc phát triển và đào tạo các mô hình ngôn ngữ lớn phụ thuộc rất nhiều vào dữ liệu cá nhân, đặc biệt là dữ liệu hội thoại giữa mọi người. Bản cáo trạng chỉ ra rằng để có thể đào tạo các mô hình ngôn ngữ lớn như ChatGPT với chi phí tương đối thấp, OpenAI đã ngồi ngoài và bỏ qua thị trường giao dịch dữ liệu trưởng thành và chọn "trộm cắp", tức là bí mật thu thập dữ liệu trên Internet . . Trong những năm qua, nó đã thu thập khoảng 300 tỷ từ văn bản trực tuyến, bao gồm sách, bài báo và bài đăng trên web. Ngoài ra, nó còn bí mật thu thập một lượng lớn dữ liệu cá nhân, bao gồm thông tin cá nhân, lịch sử trò chuyện, tương tác với dịch vụ khách hàng trực tuyến, các cuộc trò chuyện trên mạng xã hội và hình ảnh được lấy từ Internet, v.v.

(3) ChatGPT được đào tạo trên ứng dụng của người dùng​

Ban đầu, ChatGPT sử dụng người dùng để giúp họ đào tạo các mô hình của mình mà không có sự đồng ý của họ, bản cáo trạng nêu rõ. Khi người dùng trò chuyện với ChatGPT, tất cả các hành động và thông tin của họ, bao gồm nhấp chuột, đầu vào, câu hỏi, cách sử dụng, chuyển động, tổ hợp phím, tìm kiếm và vị trí địa lý, v.v., sẽ được OpenAI bí mật thu thập và sử dụng để đào tạo mô hình.
Ngoài ra, cần chỉ ra rằng OpenAI đã không tiết lộ đầy đủ trạng thái lưu trữ thông tin người dùng mà nó thu thập. Vì những dữ liệu này có thể chứa thông tin nhạy cảm của người dùng nên có nguy cơ rò rỉ cao nếu không được bảo vệ thích hợp.

(4) Microsoft thúc đẩy mô hình phụ thuộc kinh tế của OpenAI​

Bản cáo trạng chỉ ra rằng với tư cách là đối tác quan trọng nhất của OpenAI, Microsoft đã đóng một vai trò quan trọng trong quá trình quảng bá các sản phẩm OpenAI, nhưng đồng thời, nó cũng thúc đẩy đáng kể sự lây lan của các rủi ro tiềm ẩn. Mặc dù phiên bản mới nhất của GPT là GPT-4 mới chính thức ra mắt cách đây không lâu nhưng Microsoft đã tích cực tích hợp nó vào các sản phẩm cốt lõi thuộc nhiều lĩnh vực từ học thuật đến y tế. Việc tích hợp như vậy đã làm tăng vọt số lượng người dùng mà các sản phẩm của OpenAI tiếp cận được, đồng thời mở rộng đáng kể các rủi ro. Tuy nhiên, thay vì quan tâm đúng mức đến rủi ro này, Microsoft đã sa thải nhóm chịu trách nhiệm đảm bảo các nguyên tắc đạo đức AI. Và khi các nhà phát triển AI khác chứng kiến “sự thành công” của OpenAI và Microsoft, họ cũng bắt chước theo. Trong trường hợp này, những rủi ro liên quan đã đạt đến mức cao chưa từng thấy.

Rủi ro quan trọng nhất của AI​

Sau khi xem xét "sự phát triển AI ở Hoa Kỳ", bản cáo trạng liệt kê thêm những rủi ro quan trọng nhất trong tình hình hiện tại. Những rủi ro này bao gồm:

(1) Vi phạm quyền riêng tư quy mô lớn​

Việc thu thập và theo dõi thông tin cá nhân của người dùng trên quy mô lớn của bị đơn tạo thành mối đe dọa lớn đối với quyền riêng tư và bảo mật của người dùng. Thông tin đó có thể được sử dụng cho các mục đích xấu như đánh cắp danh tính, gian lận tài chính và tống tiền.
Điều đặc biệt đáng chỉ ra ở đây là OpenAI không tôn trọng "quyền được lãng quên" (right to beforgotten) của người dùng, tức là quyền xóa dữ liệu cá nhân của họ. Mặc dù bề ngoài OpenAI cho phép người dùng yêu cầu xóa dữ liệu của họ, nhưng trên thực tế, tùy chọn xóa này có thể là không có thật. Một số công ty cấm hoặc hạn chế sử dụng ChatGPT cũng vì lo sợ rằng tất cả nội dung được tải lên nền tảng AI như Chat-GPT của OpenAI hay Bard của Google sẽ được lưu trữ trên máy chủ của các công ty này, khiến việc truy cập hoặc xóa thông tin không thể thực hiện được.

(2) Các chiến dịch thông tin sai lệch do AI gây ra, các cuộc tấn công có chủ đích, tội phạm tình dục và thành kiến​

Bản cáo trạng chỉ ra rằng các sản phẩm của bị cáo, bao gồm cả ChatGPT, có lỗi sản phẩm nghiêm trọng, tức là sẽ tạo ra nhiều thông tin sai lệch. Một ví dụ điển hình là tin đồn bịa đặt của ChatGPT về hành vi quấy rối tình dục đối với giáo sư luật Jonathan Turley của Đại học George Washington. Cách đây không lâu, Eugene Volokh, giáo sư luật tại Đại học California, Los Angeles, đã tiến hành một thử nghiệm để nghiên cứu các vấn đề pháp lý của nội dung do AI tạo ra: Ông đã yêu cầu ChatGPT tạo báo cáo về "các học giả pháp lý đã quấy rối tình dục người khác. " danh sách. Để đảm bảo rằng nội dung được tạo là xác thực, anh ấy cũng đã yêu cầu cụ thể ChatGPT cho biết nguồn gốc của nội dung được tạo. Khi Warlock đọc danh sách, anh ta thấy tên của Turley trong danh sách. Theo ChatGPT, Turley đã đưa ra những nhận xét khêu gợi tình dục và cố gắng sàm sỡ một học sinh trong chuyến đi cùng lớp tới Alaska. Warlock bị cái này chấn kinh, dù sao với tư cách là một danh giáo sư, Terry cũng là trong giới nhân vật có tiếng tăm, nhưng với tư cách là đồng nghiệp, trong giới "quả dưa lớn" hắn cũng chưa từng nghe nói qua. Vì vậy, anh ngay lập tức xác nhận tin tức. Hóa ra chuyện này hoàn toàn vô căn cứ, Terry chưa từng tham gia bất kỳ chuyến dã ngoại nào của lớp cũng như chưa từng tham gia bất kỳ hoạt động quấy rối tình dục nào. Sau khi Warlock thông báo tin này với giới truyền thông, Terry, người đang "ngồi nhà, 'cái nồi' từ trên trời rơi xuống", mới biết mình bị ChatGPT mô tả là kẻ quấy rối tình dục. Anh ấy rất không hài lòng về điều này, trong một cuộc phỏng vấn, anh ấy nói: "Điều này thực sự ớn lạnh! Kiểu buộc tội sai trái này rất có hại."
Bản cáo trạng cũng chỉ ra rằng ngoài việc phổ biến thông tin sai lệch, các sản phẩm của bị cáo còn có thể được bọn tội phạm sử dụng vào các hoạt động tội phạm như quấy rối, tống tiền, tống tiền, ép buộc và lừa đảo. Ví dụ: hiện có một hình thức "quấy rối tình dục" mới, trong đó các ảnh và video riêng tư thu được qua mạng xã hội được sử dụng để tạo ra các tác phẩm sâu có chứa nội dung khiêu ***. Việc phát tán công khai những bức ảnh này trên Internet đã gây tổn hại nghiêm trọng về tinh thần và cảm xúc cho các nạn nhân.
Điều cần đặc biệt chú ý ở đây là sản phẩm của bị cáo cũng từng được sử dụng cho mục đích khiêu *** trẻ em. Ví dụ: một số kẻ ấu *** sử dụng Dall-E để tạo ra một số lượng lớn hình ảnh và video về hành vi tình dục trẻ em với chi phí rất thấp và phát tán chúng trên dark web. Những hành động này đã gây ra hậu quả khá nghiêm trọng.
Ngoài ra, bản cáo trạng cũng chỉ ra rằng các sản phẩm của bị cáo, chẳng hạn như ChatGPT, cũng thúc đẩy sự lan truyền của hận thù và định kiến. Điều này là do các mô hình ngôn ngữ được đào tạo dựa trên kho ngữ liệu thực tế, chứa nhiều nội dung liên quan đến hận thù và định kiến. Bị cáo khi đào tạo người mẫu đã không chú ý loại trừ những thông tin đó dẫn đến bản thân người mẫu bị khiếm khuyết.

(3) Giúp xây dựng phần mềm độc hại siêu mạnh​

Bản cáo trạng nói rằng các sản phẩm của các bị cáo cũng hỗ trợ đắc lực cho việc tạo ra phần mềm độc hại. Phần mềm độc hại là một chương trình máy tính được thiết kế để làm hỏng hoặc xâm nhập hệ thống máy tính. Trong thập kỷ qua, phần mềm độc hại đã trở nên tinh vi hơn và khó phát hiện hơn.
Sản phẩm của các bị đơn có thể tạo ra phần mềm độc hại gần như không thể phát hiện được với chi phí thấp và có thể được sử dụng trên quy mô lớn, gây ra những rủi ro chưa từng có đối với an ninh mạng trên toàn thế giới. Mặc dù OpenAI tuyên bố có các biện pháp bảo vệ ngăn chặn việc tạo ra phần mềm độc hại đa hình, nhưng trên thực tế, các nhà phát triển phần mềm độc hại có thể bỏ qua các bộ lọc này bằng cách gõ thông minh. Theo đó, luật sư của nguyên đơn cho rằng việc đưa khả năng phá hoại tăng cường này ra công chúng nhưng lại thiếu các biện pháp bảo vệ an toàn cần thiết được coi là sơ suất nghiêm trọng của bị đơn.

(4) Vũ khí tự trị​

Cái gọi là vũ khí tự trị, còn được gọi là "slaughterbot", "hệ thống vũ khí tự trị gây chết người" hoặc "rô bốt sát thủ", sử dụng AI để xác định, lựa chọn và trong một số trường hợp, giết người là mục tiêu, từ đó đặt ra mục tiêu đe dọa nghiêm trọng đến an ninh quốc tế và nhân quyền.
Bản cáo trạng chỉ ra rằng nguy cơ AI không được kiểm soát hiện nay không còn xa vời nữa mà đang trở thành một nguy cơ thực sự, chẳng hạn như nó từng suýt ám sát một nguyên thủ quốc gia nước ngoài (lưu ý: bản cáo trạng không bình luận về điều này. Tôi đoán nó đề cập đến đến vụ tấn công bằng máy bay không người lái vào Tổng thống Venezuela Nicolás Maduro trong bài phát biểu của ông). Chi phí và độ khó để chế tạo và sử dụng một loại vũ khí giết người như vậy là rất thấp.
Các chuyên gia cảnh báo rằng do thiếu các chuẩn mực đạo đức và đạo đức đầy đủ trong khi liên tục cải thiện khả năng của trí tuệ nhân tạo, sự tiến bộ của các công nghệ tương tự sẽ đẩy nhanh quá trình phát triển vũ khí tự trị và việc thương mại hóa quy mô lớn các sản phẩm này sẽ đẩy nhanh rủi ro lan rộng. và rủi ro.

Bị đơn vi phạm tài sản và quyền riêng tư của nguyên đơn​

Sau khi liệt kê nhiều rủi ro chính mà sản phẩm của bị cáo có thể gây ra, bản cáo trạng tập trung vào hành vi vi phạm quyền riêng tư và tài sản của bị cáo.

(1) Dữ liệu được thu thập của bị cáo nên được coi là hành vi trộm cắp​

Bản cáo trạng lập luận rằng hành vi tìm kiếm bí mật, quy mô lớn trên Internet mà không có sự đồng ý của bị cáo về cơ bản là một hành vi trộm cắp và biển thủ.
Để giải thích bản chất hành vi của bị đơn, luật sư của nguyên đơn đã so sánh với sự cố Clearview AI năm 2020. Clearview AI, một công ty nhận dạng khuôn mặt, đã thu thập hàng tỷ bức ảnh có sẵn công khai từ nhiều trang web và nền tảng truyền thông xã hội khác nhau để phát triển sản phẩm của mình mà không có sự đồng ý của người dùng. Ngay sau khi hành vi của anh ta được tờ New York Times công khai, dư luận đã dấy lên sự bất bình. Vào tháng 3 năm 2020, Liên minh Tự do Dân sự Hoa Kỳ của Illinois và các công tố viên ở Vermont đã đệ đơn kiện ClearviewAI gần như đồng thời. Các cơ quan quản lý ở Vương quốc Anh, Ý, Úc và các quốc gia khác cũng đã liên tiếp mở các cuộc điều tra về ClearviewAI và áp đặt các mức phạt khác nhau đối với nó.
Luật sư của nguyên đơn tin rằng bản chất của việc thu thập dữ liệu bất hợp pháp của OpenAI rất giống với ClearviewAI, vì vậy nó cũng nên được coi là bất hợp pháp.

(2) Hành vi của bị đơn đã xâm phạm quyền tài sản của nguyên đơn​

Bản cáo trạng chỉ ra rằng trong các trường hợp trước đây, tòa án đã thiết lập nguyên tắc rằng người dùng Internet có quyền và lợi ích tài sản đối với thông tin và dữ liệu cá nhân của họ. Trong thị trường dữ liệu, giá trị thông tin của một người dùng Internet là từ 15 đến 40 đô la Mỹ, hoặc thậm chí nhiều hơn. Các cuộc điều tra khác đã chỉ ra rằng danh tính trực tuyến của một người có thể được bán với giá 1.200 USD trên dark web. Theo cách định giá này, giá trị tài sản bị OpenAI vi phạm bất hợp pháp sẽ rất đáng kinh ngạc.

(3) Hành vi của bị đơn đã xâm phạm quyền riêng tư của nguyên đơn​

Ngoài các quyền về tài sản, người sử dụng Internet có quyền đối với sự riêng tư của thông tin cá nhân, ngay cả khi nó được đăng trực tuyến. Do đó, hành vi thu thập dữ liệu bất hợp pháp của bị đơn cũng đã cấu thành hành vi xâm phạm quyền riêng tư của nguyên đơn.
Bản cáo trạng nêu rõ rằng việc tổng hợp và phân tích dữ liệu có thể tiết lộ thông tin mà các cá nhân không muốn công khai. Ví dụ, thông qua các tweet công khai của một người, sức khỏe tinh thần của anh ta có thể được phân tích. Do đó, ngay cả một lượng nhỏ thông tin riêng tư được "công khai" cũng đủ gây tổn hại đến quyền riêng tư của người dùng Internet. Ngoài ra, bản cáo trạng cũng chỉ ra rằng khi người dùng đăng bài trực tuyến, họ thường mong đợi rằng nội dung đó sẽ không được quá nhiều người xem và ảnh hưởng của nó sẽ mất dần theo thời gian. Tuy nhiên, hành vi của bị cáo đã phá vỡ sự mong đợi của người dùng, do đó xâm phạm lợi ích của họ.

(4) Hành vi thương mại của bị cáo đã xúc phạm người có lý và phớt lờ cảnh báo của cơ quan quản lý​

Bản cáo trạng lưu ý rằng hiện nay công chúng lo lắng và sợ hãi về cách các bị cáo sử dụng và có thể lạm dụng thông tin cá nhân của họ. Mọi người lo lắng rằng thông tin cá nhân của họ sẽ được nhúng vĩnh viễn vào các sản phẩm của bị đơn, để nó có thể bị truy cập, chia sẻ và sử dụng sai mục đích nhiều lần.
Ngoài ra, bản cáo trạng cũng chỉ ra các cơ quan quản lý hiện hành đã cảnh báo về các hoạt động phạm pháp tương tự, chẳng hạn Ủy ban Thương mại Liên bang từng đề cập trong vụ kiện chống lại Amazon: “Học máy không phải là cái cớ để vi phạm pháp luật… cải tiến thuật toán. Dữ liệu phải được thu thập và lưu giữ một cách hợp pháp. Tốt hơn hết, các công ty nên học bài học đó".

(5) Bị cáo đã đánh cắp dữ liệu người dùng ngoài sự đồng ý hợp lý​

Ngoài việc trực tiếp lấy thông tin trên Internet, bị cáo còn thu thập dữ liệu được tạo ra trong quá trình người dùng sử dụng các sản phẩm như ChatGPT. Trong bản cáo trạng, nó được gọi là loại trộm cắp thứ hai. Cụ thể, có hai biểu hiện: Một mặt, đối với người tiêu dùng sử dụng plugin hoặc API ChatGPT, các trang web khác nhau không cung cấp bất kỳ thông tin đồng ý có hiểu biết nào và thông tin cũng như dữ liệu cá nhân của người tiêu dùng bị vi phạm trong trường hợp này. mô hình lớn của các bị cáo. Mặt khác, ngay cả những người đã đăng ký tài khoản OpenAI và tương tác trực tiếp với ChatGPT cũng không được thông báo trước khi dữ liệu của họ được thu thập.
Trong số những điều khác, các bị cáo đã thông báo cho người dùng rằng họ có thể yêu cầu không sử dụng thông tin cá nhân của họ, nhưng trên thực tế, họ không thể xóa dữ liệu đã thu thập khỏi cơ sở tri thức của mô hình ngôn ngữ. Đồng thời, bị đơn cũng không thể cung cấp cho người dùng tình trạng sử dụng dữ liệu nên hành vi của bị đơn đã vi phạm nghiêm trọng nguyên tắc minh bạch.

Bị cáo vi phạm quyền trẻ em​

Sau khi nêu rõ những hành vi vi phạm quyền tài sản, xâm phạm quyền riêng tư mà các bị cáo gây ra cho nguyên đơn, cáo trạng cũng nêu rõ những nguy cơ và nguy cơ xâm hại quyền riêng tư của trẻ em. Cụ thể, điều này bao gồm các khía cạnh sau:
Một là lừa đảo theo dõi trẻ em mà không có sự đồng ý của chúng. Bản cáo trạng chỉ ra rằng bị cáo đã thu thập một lượng lớn thông tin nhạy cảm về trẻ em một cách vi phạm các quy định, bao gồm danh tính, vị trí, sở thích và các mối quan hệ.
Thứ hai là OpenAI đã nêu rõ trong điều khoản dịch vụ và chính sách quyền riêng tư rằng người dùng ChatGPT là những cá nhân từ 13 tuổi trở lên, nhưng trên thực tế, nền tảng này không có cơ chế xác minh và người dùng chưa đủ tuổi có thể dễ dàng đạt được bằng cấp bằng cách khai báo gian dối tuổi của họ. Sự thiếu sót của bị cáo sẽ khiến những người dùng chưa đủ tuổi này tiếp xúc với thông tin có hại.
Thứ ba là bị cáo đã tước đi giá trị kinh tế của những người sử dụng trẻ em. Bản cáo trạng chỉ ra rằng so với người lớn, trẻ em có nhiều khả năng bị xúi giục bán nhiều thông tin khác nhau về bản thân và những người khác, điều này cho phép bị cáo có được dữ liệu có giá trị cao hơn thông qua trẻ em và sử dụng dữ liệu đó để kiếm lời.
Thứ tư, bị cáo đã vi phạm những kỳ vọng hợp lý về quyền riêng tư và gây khó chịu. Bản cáo trạng tuyên bố rằng quyền giám hộ và giám hộ của cha mẹ đối với con cái của họ là một quyền tự do cơ bản. Do đó, việc bị cáo đặt vấn đề về quyền riêng tư của con cái thực sự đã vi phạm những kỳ vọng hợp lý của cha mẹ về việc bảo vệ quyền riêng tư, không chỉ vi phạm pháp luật mà còn ảnh hưởng nghiêm trọng đến chuẩn mực, đạo đức xã hội.

Các cáo buộc liên quan và các biện pháp pháp lý​

Dựa trên các sự kiện có liên quan ở trên, luật sư của nguyên đơn tin rằng các bị cáo OpenAI và Microsoft bị nghi ngờ vi phạm nhiều luật bao gồm Đạo luật bảo mật thông tin liên lạc điện tử và Đạo luật lạm dụng và gian lận máy tính, do đó đã đệ trình mười lăm cáo buộc chống lại họ.
Đồng thời, nguyên đơn đề xuất biện pháp khắc phục pháp lý của riêng mình cho tòa án. Kế hoạch bao gồm: yêu cầu tòa án ban hành lệnh cho phép bị đơn tạm thời đóng băng quyền truy cập thương mại và phát triển thương mại của sản phẩm cho đến khi hoàn thành một loạt cải chính và đáp ứng các yêu cầu của tòa án. Đồng thời, bản cáo trạng cũng yêu cầu bị đơn bồi thường thiệt hại cho nguyên đơn - bao gồm thiệt hại thực tế do phiên tòa xác định, bồi thường thiệt hại gấp ba lần và bồi thường thiệt hại mẫu mực được pháp luật cho phép. Mặc dù trong bản cáo trạng, số tiền bồi thường ước tính không được đưa ra, nhưng nếu các cáo buộc liên quan được tòa án ủng hộ, thì số tiền này phải là một con số lớn.

Triển vọng và tầm quan trọng của kiện tụng​

Thành thật mà nói, mặc dù các cáo buộc trong bản cáo trạng này là rất nghiêm trọng, nhưng để kiện thành công OpenAI và Microsoft không phải là điều dễ dàng như vậy đối với các nguyên đơn. Rốt cuộc, Microsoft, với tư cách là bị đơn, có một đội ngũ pháp lý mạnh mẽ và sự hỗ trợ tài chính mạnh mẽ. Cho dù có thể thành công, e rằng sẽ phải kiện tụng kéo dài. Trên thực tế, theo thông lệ, cách khả thi nhất để kết thúc vụ kiện này là nguyên đơn và bị đơn đạt được thỏa thuận hòa giải, OpenAI và Microsoft chấp nhận một phần yêu cầu của nguyên đơn và trả một khoản bồi thường nhỏ. Điều đó có nghĩa là, bất chấp tiếng sấm của vụ án, kết quả cuối cùng có thể chỉ là một vài cơn mưa phùn.
Tuy nhiên, mặc dù kết thúc nhàm chán có khả năng sẽ bị tiêu diệt, nhưng tại thời điểm này, bản thân vụ án vẫn rất có ý nghĩa. Kể từ năm ngoái, AI tổng quát đã tạo ra một vụ nổ. Không giống như những đợt bùng nổ công nghệ trước đây, không phải những gã khổng lồ truyền thống như Google và Facebook đang dẫn đầu đợt bùng phát này, mà là một công ty nhỏ mới thành lập như OpenAI. Công nghệ mạnh mẽ và cách thiết lập hình ảnh công ty đầy cảm hứng khiến mọi người dễ dàng quên đi những rủi ro đằng sau sản phẩm mà công ty đang quảng cáo. Với sự phổ biến nhanh chóng của các mô hình AI tổng quát, những rủi ro liên quan ngày càng khó bỏ qua, vì vậy, tại thời điểm này, thông qua một vụ kiện như vậy để làm sáng tỏ vấn đề, để nhiều người nhận ra những rủi ro đằng sau sự phát triển của AI, Just giá trị lớn.
Cần phải thừa nhận rằng hầu hết các vấn đề mà luật sư của nguyên đơn nêu ra trong bản cáo trạng đều tồn tại, nhưng cá nhân tôi cho rằng có một số vấn đề có thể thảo luận liên quan đến phương án giảm nhẹ pháp lý do ông đề xuất.
Ở giai đoạn này, các loại mô hình AI đã được sử dụng rộng rãi, nếu dừng ngay việc sử dụng các mô hình này theo yêu cầu của nguyên đơn sẽ gây ra tổn thất rất lớn, điều này là không thực tế. Ngược lại, một cách tiếp cận an toàn hơn có thể là dần dần tăng cường quản trị khi nó phát triển.
Trên thực tế, nhiều vấn đề được đề cập trong bản cáo trạng có thể được giải quyết bằng các biện pháp kỹ thuật.Ví dụ, tăng cường xác minh trong quá trình đăng ký có thể giải quyết vấn đề trẻ vị thành niên khai man tuổi;thông qua học tập liên kết và các phương pháp khác, nó có thể làm giảm bớt hiệu quả vấn đề rò rỉ quyền riêng tư do thu thập dữ liệu; với sự trợ giúp của chuỗi khối và các công nghệ khác, luồng dữ liệu có thể được theo dõi. Tôi nghĩ, so với việc cấm nó một lần, nếu OpenAI và Microsoft, sau khi thu được doanh thu khổng lồ nhờ AI, đầu tư một phần lợi nhuận của họ vào công nghệ để khắc phục các vấn đề trước đó và để các mô hình AI của họ được phát triển và quản lý. Sự cân bằng tốt hơn giữa chúng có thể là một giải pháp tốt hơn.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng

Gợi ý cộng đồng

Top