Khả năng mới nổi của AI là 'con dao hai lưỡi'

Hoàng Nam

Writer
Trong thời gian gần đây, Trí Tuệ Nhân Tạo (AI) tập trung vào Generative Pre-trained Transformer”, nghĩa một mô hình học sâu dựa trên kiến trúc Transformer được huấn luyện trước, bằng cách sử dụng mô hình và công cụ ngôn ngữ lớn, như ChatGPT của OpenAI hoặc Bard của Google.
Generative pre-training Transformers (GPT) là các mô hình AI đặc biệt được đào tạo để hiểu và tạo ra văn bản giống con người và xử lý lượng lớn dữ liệu văn bản. Mới đây, có hiện tượng được gọi là "khả năng mới nổi" trong các mô hình AI.
"Khả năng mới nổi" là những khả năng mà AI tự tạo ra, không được lập trình sẵn trong mô hình. Theo ChatGPT, "khả năng mới nổi trong các mô hình AI tổng quát đề cập đến những khả năng bất ngờ hoặc mới lạ phát sinh từ quá trình đào tạo và vận hành. Mặc dù ban đầu các mô hình AI tổng quát được đào tạo để hiểu các mẫu và tạo ra nội dung dựa trên dữ liệu hiện có, nhưng đôi khi chúng có thể thể hiện các hành động hoặc tạo ra các kết quả không được người tạo ra chúng lập trình hoặc dự đoán rõ ràng. Những khả năng mới nổi này có thể vừa có lợi vừa gây lo ngại".
Khả năng mới nổi của AI là 'con dao hai lưỡi'
Các khả năng mới nổi có thể bao gồm khả năng sáng tạo, tạo deepfake, chuyển đổi phong cách, cải thiện nội dung, hiểu ngôn ngữ và nhiều khả năng khác. Ví dụ, AI có thể bắt đầu hiểu các ngôn ngữ mà nó không được đào tạo ban đầu. Những khả năng đáng chú ý này có thể xuất hiện trong quá trình đào tạo mô hình AI hoặc trong giai đoạn vận hành, nếu mô hình được thiết lập để liên tục cải tiến, ví dụ như thông qua việc học từ tương tác với con người và các hệ thống máy tính khác.
Mặc dù phát triển và sử dụng AI có nhiều khía cạnh quan trọng về pháp lý và đạo đức, đảm bảo quyền riêng tư và tự do cá nhân của người dùng trong quá trình tạo, đào tạo và sử dụng GPT là một vấn đề quan trọng cần xem xét. Công nghệ AI đang phát triển nhanh chóng, trong khi khung pháp lý hiện tại thường liên quan đến sở hữu trí tuệ (bản quyền, bí quyết và quyền sở hữu khác), bảo vệ dữ liệu và các quy định liên quan đến bảo mật thông tin.
Quy tắc chung về bảo vệ dữ liệu tại Liên minh châu Âu đặt ra một số yêu cầu về bảo vệ dữ liệu cá nhân. Do đó, một câu hỏi đặt ra là liệu các khả năng mới nổi, mà AI có thể tạo ra, có đủ điều kiện để sử dụng dựa trên quy tắc bảo vệ dữ liệu hiện hành tại Liên minh châu Âu hay không.
Mặc dù Nghị định GDPR (Quy tắc bảo vệ dữ liệu chung) không đặc định thuật ngữ "sử dụng thêm", nhưng các điều khoản liên quan đã được quy định trong Điều 6(4) và đã được thực hiện trong thực tiễn bảo vệ dữ liệu tại Liên minh châu Âu. Sử dụng thêm đề cập đến "xử lý dữ liệu cá nhân cho mục đích khác với mục đích thu thập dữ liệu ban đầu".
GDPR cũng nêu rõ rằng việc sử dụng thêm dữ liệu cá nhân chỉ được phép nếu mục đích ban đầu và mục đích sử dụng thêm là tương thích. Tương thích cần phải được đánh giá trường hợp cụ thể và điều này có thể khó khăn trong thực tế khi AI có thể tạo ra khả năng mới mà ngay cả các nhà phát triển cũng không thể dự đoán trước. Để xác định tính tương thích của các mục đích, người kiểm soát dữ liệu phải xem xét mối quan hệ giữa các mục đích khác nhau, ngữ cảnh thu thập dữ liệu cá nhân, bản chất của dữ liệu cá nhân, hậu quả tiềm ẩn của việc sử dụng thêm đối với chủ thể dữ liệu và áp dụng các biện pháp kiểm soát kỹ thuật thích hợp.
Theo quan điểm của chúng tôi, có thể thiết lập một liên kết dễ dàng vì một số khả năng mới nổi có thể không đòi hỏi mục đích xử lý khác với mục đích ban đầu. Ngữ cảnh thu thập dữ liệu cá nhân thường tương tự, và bản chất của dữ liệu cá nhân thường được xác định trước bởi bên kiểm soát dữ liệu trong quá trình đào tạo và xác thực dữ liệu. Tuy nhiên, trong thực tế, điều này có thể không phải lúc nào cũng đúng. Hơn nữa, việc đánh giá các hậu quả tiềm ẩn có thể gặp khó khăn do tính chất mờ đục, giống như hộp đen của AI. Giải pháp cuối cùng có thể vẫn là lấy được sự đồng ý từ các chủ thể dữ liệu bị ảnh hưởng, nhưng trong thực tế, điều này có vẻ phức tạp và thường không hiệu quả.
Đạo luật về Trí Tuệ Nhân Tạo của Liên minh châu Âu sẽ có thể ảnh hưởng đến việc phát triển và sử dụng các mô hình GPT trong các tình huống thực tế. Một trong các mục tiêu chính của nó là xác định và tạo ra một khung pháp lý trung lập về công nghệ để phát triển, sử dụng và cung cấp các hệ thống AI có rủi ro cao trong Liên minh châu Âu. Vì những phát triển gần đây và sự phổ biến của GPT, Đạo luật về Trí Tuệ Nhân Tạo hiện đang xem xét cách xử lý các mô hình tổng hợp AI.
Theo Nghị viện Châu Âu, "Các mô hình nền tảng sáng tạo như GPT sẽ phải tuân thủ các yêu cầu bổ sung về tính minh bạch, bao gồm việc tiết lộ rõ ràng rằng nội dung được tạo ra bởi AI, thiết kế mô hình để ngăn nó tạo ra nội dung bất hợp pháp và xuất bản các bản tóm tắt dữ liệu có bản quyền được sử dụng cho mục đích đào tạo".
Mặc dù quy định dự thảo đề cập cụ thể đến các công nghệ AI sáng tạo, nó không đề cập đến khả năng mới của GPT và cách xử lý các rủi ro tiềm ẩn có thể liên quan đến chúng. Tuy nhiên, Đạo luật về Trí Tuệ Nhân Tạo sẽ đưa ra yêu cầu triển khai và vận hành một số quy trình và phương tiện quản lý rủi ro nhất định trong trường hợp các hệ thống AI có rủi ro cao. Trong dự thảo, các hệ thống AI có rủi ro cao được vận hành trong các lĩnh vực nhận dạng và phân loại sinh trắc học của cá nhân; quản lý và vận hành cơ sở hạ tầng quan trọng; giáo dục và đào tạo; việc làm, quản lý nguồn nhân lực và khả năng tự làm chủ; tiếp cận và sử dụng các dịch vụ tư nhân quan trọng cũng như các dịch vụ và phúc lợi công cộng; thực thi pháp luật; quản lý di cư, tị nạn và kiểm soát biên giới; và quản lý công lý và các tiến trình dân chủ.
Mặc dù GPT không thỏa mãn yêu cầu để được xem xét là hệ thống AI có rủi ro cao theo Đạo luật AI được đề xuất, nhưng những nghĩa vụ đối với AI sáng tạo chủ yếu liên quan đến tính minh bạch, bao gồm việc tiết lộ rằng nội dung do AI tạo ra, thiết kế mô hình để ngăn nó tạo ra nội dung bất hợp pháp và xuất bản tóm tắt dữ liệu có bản quyền được sử dụng cho mục đích đào tạo.
Các điều khoản của GDPR có thể vẫn được áp dụng, và người kiểm soát dữ liệu phải đánh giá liệu khả năng mới của GPT có đủ điều kiện để sử dụng dựa trên mục đích ban đầu hay không và liệu nó có vi phạm nguyên tắc giới hạn mục đích trong từng trường hợp cụ thể hay không. Nếu có, khả năng mới đó có thể có nghĩa là mục đích xử lý dữ liệu không tương thích với mục đích ban đầu và do đó yêu cầu bên kiểm soát dữ liệu phải thực hiện thêm các hành động liên quan đến tuân thủ, ví dụ: lấy được sự đồng ý từ các chủ thể dữ liệu bị ảnh hưởng.
Kết luận: Các khả năng mới của Trí Tuệ Nhân Tạo mang đến cơ hội kỳ diệu cùng với những thách thức lớn. Việc hiểu và quản lý những khả năng này, đồng thời đối phó với rủi ro và không chắc chắn, đòi hỏi một cách tiếp cận toàn diện và tích hợp giữa công nghệ, đạo đức và quy định. Chúng ta cần cẩn trọng trong việc điều hướng sự phát triển này để tận dụng lợi ích từ khả năng mới của AI, đồng thời bảo vệ quyền riêng tư, đạo đức và phúc lợi xã hội.
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top