Cách một công ty dùng dữ liệu đào tạo AI sáng tạo

Nhiều công ty đang thử nghiệm ChatGPT và các mô hình hình ảnh hoặc ngôn ngữ lớn khác. Nhìn chung, họ thấy họ thật đáng kinh ngạc về khả năng diễn đạt những ý tưởng phức tạp bằng ngôn ngữ rõ ràng. Tuy nhiên, hầu hết người dùng nhận ra rằng các hệ thống này chủ yếu được đào tạo về thông tin dựa trên internet và không thể trả lời các lời nhắc hoặc câu hỏi liên quan đến nội dung hoặc kiến thức độc quyền.
Cách một công ty dùng dữ liệu đào tạo AI sáng tạo
Tận dụng kiến thức thuộc sở hữu của công ty là rất quan trọng đối với khả năng cạnh tranh và đổi mới của mỗi doanh nghiệp, đặc biệt là trong môi trường đầy biến động ngày nay. Đổi mới tổ chức được thúc đẩy thông qua việc tạo, quản lý, ứng dụng, tái kết hợp và triển khai các tài sản tri thức và bí quyết hiệu quả và nhanh nhẹn. Tuy nhiên, kiến thức bên trong các tổ chức thường được tạo ra và thu thập từ nhiều nguồn và hình thức khác nhau, bao gồm tâm trí cá nhân, quy trình, chính sách, báo cáo, giao dịch vận hành, diễn đàn thảo luận cũng như các cuộc trò chuyện và họp trực tuyến. Như vậy, kiến thức toàn diện của một công ty thường không được tính đến và khó tổ chức và triển khai khi cần thiết một cách hiệu quả hoặc hiệu quả.
Các công nghệ mới nổi dưới dạng các mô hình AI tạo ra hình ảnh và ngôn ngữ lớn mang đến những cơ hội mới để quản lý tri thức, từ đó nâng cao hiệu suất, khả năng học tập và đổi mới của công ty. Ví dụ: trong một nghiên cứu được thực hiện tại một nhà cung cấp phần mềm quy trình kinh doanh trong danh sách Fortune 500, một hệ thống hỗ trợ khách hàng dựa trên trí tuệ nhân tạo AI đã giúp tăng năng suất của các đại lý hỗ trợ khách hàng và cải thiện khả năng giữ chân khách hàng, đồng thời dẫn đến phản hồi tích cực cao hơn từ phía khách hàng. Hệ thống cũng đẩy nhanh quá trình học tập và phát triển kỹ năng của các đặc vụ mới làm quen.
Giống như công ty đó, ngày càng nhiều tổ chức đang cố gắng tận dụng các kỹ năng xử lý ngôn ngữ và khả năng suy luận chung của các mô hình ngôn ngữ lớn (LLM) để nắm bắt và cung cấp quyền truy cập nội bộ (hoặc khách hàng) rộng rãi vào vốn trí tuệ của chính họ. Họ đang sử dụng nó cho các mục đích như thông báo cho nhân viên làm việc trực tiếp với khách hàng về chính sách của công ty và đề xuất sản phẩm/dịch vụ, giải quyết các vấn đề về dịch vụ khách hàng hoặc nắm bắt kiến thức của nhân viên trước khi họ rời khỏi tổ chức.
Những mục tiêu này cũng xuất hiện trong thời kỳ hoàng kim của phong trào “quản lý tri thức” vào những năm 1990 và đầu những năm 2000, nhưng hầu hết các công ty đều nhận thấy công nghệ thời bấy giờ không phù hợp với nhiệm vụ này. Tuy nhiên, ngày nay, trí tuệ nhân tạo AI đang nhen nhóm khả năng nắm bắt và phổ biến kiến thức quan trọng trong toàn tổ chức và bên ngoài các bức tường của tổ chức. Như một người quản lý sử dụng AI tổng quát cho mục đích này đã nói: “Tôi cảm thấy như một chiếc ba lô phản lực vừa xuất hiện trong cuộc đời mình”. Bất chấp những tiến bộ hiện tại, một số yếu tố tương tự gây khó khăn cho việc quản lý tri thức trong quá khứ vẫn còn tồn tại.

Công nghệ quản lý tri thức dựa trên trí tuệ nhân tạo

Công nghệ kết hợp kiến thức miền cụ thể của một tổ chức vào LLM đang phát triển nhanh chóng. Hiện tại, có ba cách tiếp cận chính để kết hợp nội dung độc quyền vào một mô hình tổng quát.

Đào tạo LLM từ đầu​

Một cách tiếp cận là tạo và đào tạo mô hình dành riêng cho miền của riêng bạn từ đầu. Đó không phải là cách tiếp cận phổ biến, vì nó đòi hỏi một lượng lớn dữ liệu chất lượng cao để đào tạo một mô hình ngôn ngữ lớn và hầu hết các công ty đơn giản là không có. Nó cũng yêu cầu quyền truy cập vào sức mạnh tính toán đáng kể và tài năng khoa học dữ liệu được đào tạo bài bản.
Một công ty đã sử dụng phương pháp này là Bloomberg, công ty gần đây đã thông báo rằng họ đã tạo BloombergGPT cho nội dung dành riêng cho tài chính và giao diện ngôn ngữ tự nhiên với thiết bị đầu cuối dữ liệu của mình. Bloomberg có dữ liệu tài chính, tin tức và tài liệu trong hơn 40 năm, được kết hợp với một khối lượng lớn văn bản từ hồ sơ tài chính và dữ liệu internet. Tổng cộng, các nhà khoa học dữ liệu của Bloomberg đã sử dụng 700 mã thông báo, tương đương khoảng 350 tỷ từ, 50 tỷ tham số và 1,3 triệu giờ đơn vị thời gian xử lý đồ họa. Rất ít công ty có sẵn những tài nguyên đó.

Tinh chỉnh một LLM hiện có​

Cách tiếp cận thứ hai là “tinh chỉnh” đào tạo LLM hiện có để thêm nội dung miền cụ thể vào hệ thống đã được đào tạo về kiến thức chung và tương tác dựa trên ngôn ngữ. Cách tiếp cận này liên quan đến việc điều chỉnh một số tham số của mô hình cơ sở và thường yêu cầu ít dữ liệu hơn đáng kể — thường chỉ hàng trăm hoặc hàng nghìn tài liệu, thay vì hàng triệu hoặc hàng tỷ — và ít thời gian tính toán hơn so với việc tạo một mô hình mới từ đầu.
Ví dụ, Google đã sử dụng chương trình đào tạo tinh chỉnh trên mô hình Med-PaLM2 (phiên bản thứ hai) để có kiến thức y tế. Dự án nghiên cứu bắt đầu với PaLM2 LLM chung của Google và đào tạo lại nó dựa trên kiến thức y tế được tuyển chọn cẩn thận từ nhiều bộ dữ liệu y tế công cộng. Mô hình này có thể trả lời 85% câu hỏi trong kỳ thi cấp phép y tế của Hoa Kỳ — tốt hơn gần 20% so với phiên bản đầu tiên của hệ thống. Bất chấp sự tiến bộ nhanh chóng này, khi được thử nghiệm trên các tiêu chí như tính thực tế khoa học, độ chính xác, sự đồng thuận y tế, lý luận, sai lệch và tác hại, và được đánh giá bởi các chuyên gia về con người từ nhiều quốc gia, nhóm phát triển cảm thấy rằng hệ thống vẫn cần cải tiến đáng kể trước khi được áp dụng cho lâm sàng. luyện tập.
Tuy nhiên, phương pháp tinh chỉnh có một số hạn chế. Mặc dù yêu cầu sức mạnh tính toán và thời gian ít hơn nhiều so với đào tạo LLM, nhưng việc đào tạo vẫn có thể tốn kém, đây không phải là vấn đề đối với Google nhưng sẽ là vấn đề đối với nhiều công ty khác. Nó đòi hỏi chuyên môn khoa học dữ liệu đáng kể; ví dụ, bài báo khoa học cho dự án Google có 31 đồng tác giả. Một số nhà khoa học dữ liệu lập luận rằng tốt nhất không nên thêm nội dung mới mà nên thêm định dạng và kiểu nội dung mới (chẳng hạn như trò chuyện hoặc viết như William Shakespeare). Ngoài ra, một số nhà cung cấp LLM (ví dụ: OpenAI) không cho phép tinh chỉnh trên các LLM mới nhất của họ, chẳng hạn như GPT-4.

Điều chỉnh kịp thời một LLM hiện có​

Có lẽ cách tiếp cận phổ biến nhất để tùy chỉnh nội dung của LLM cho các công ty cung cấp dịch vụ không phải đám mây là điều chỉnh nội dung đó thông qua lời nhắc. Với cách tiếp cận này, mô hình ban đầu được giữ cố định và được sửa đổi thông qua lời nhắc trong cửa sổ ngữ cảnh có chứa kiến thức về miền cụ thể. Sau khi điều chỉnh kịp thời, mô hình có thể trả lời các câu hỏi liên quan đến kiến thức đó. Cách tiếp cận này là hiệu quả nhất về mặt tính toán trong ba cách và nó không yêu cầu một lượng lớn dữ liệu được đào tạo trên một miền nội dung mới.
Ví dụ, Morgan Stanley đã sử dụng tính năng điều chỉnh nhanh chóng để đào tạo mô hình GPT-4 của OpenAI bằng cách sử dụng bộ 100.000 tài liệu được tuyển chọn cẩn thận với kiến thức quan trọng về đầu tư, kinh doanh nói chung và quy trình đầu tư. Mục tiêu là cung cấp cho các cố vấn tài chính của công ty kiến
thức chính xác và dễ tiếp cận về các vấn đề chính mà họ gặp phải trong vai trò tư vấn cho khách hàng. Hệ thống được đào tạo nhanh chóng được vận hành trong một đám mây riêng mà chỉ nhân viên của Morgan Stanley mới có thể truy cập được.
Mặc dù đây có lẽ là cách dễ nhất trong ba cách tiếp cận để một tổ chức áp dụng, nhưng nó không phải là không có những thách thức kỹ thuật. Khi sử dụng dữ liệu phi cấu trúc như văn bản làm đầu vào cho LLM, dữ liệu có thể quá lớn với quá nhiều thuộc tính quan trọng để nhập trực tiếp vào cửa sổ ngữ cảnh cho LLM. Giải pháp thay thế là tạo các phần nhúng vectơ — các mảng giá trị số được tạo ra từ văn bản bởi một mô hình học máy được đào tạo trước khác (Morgan Stanley sử dụng một mô hình từ OpenAI có tên là Ada). Các nhúng vectơ là một biểu diễn nhỏ gọn hơn của dữ liệu này giúp duy trì các mối quan hệ theo ngữ cảnh trong văn bản. Khi người dùng nhập lời nhắc vào hệ thống, thuật toán tương tự sẽ xác định vectơ nào sẽ được gửi tới mô hình GPT-4. Mặc dù một số nhà cung cấp đang cung cấp các công cụ để làm cho quá trình điều chỉnh kịp thời này dễ dàng hơn,
Tuy nhiên, cách tiếp cận này không cần tốn nhiều thời gian hoặc tốn kém nếu nội dung cần thiết đã có sẵn. Ví dụ, công ty nghiên cứu đầu tư Morningstar đã sử dụng tính năng nhúng vectơ và điều chỉnh nhanh chóng cho công cụ nghiên cứu Mo được xây dựng trên AI tổng quát. Nó kết hợp hơn 10.000 mẩu nghiên cứu của Morningstar. Chỉ sau khoảng một tháng làm việc trên hệ thống của mình, Morningstar đã mở rộng việc sử dụng Mo cho các cố vấn tài chính và khách hàng là nhà đầu tư độc lập của họ. Nó thậm chí còn gắn Mo vào một hình đại diện kỹ thuật số có thể nói ra câu trả lời của nó. Phương pháp kỹ thuật này không tốn kém; trong tháng đầu tiên sử dụng, Mo đã trả lời 25.000 câu hỏi với chi phí trung bình là 0,002 đô la cho mỗi câu hỏi với tổng chi phí là 3.000 đô la.

Giám tuyển và quản trị nội dung

Giống như cách quản lý kiến thức truyền thống, trong đó tài liệu được tải vào cơ sở dữ liệu thảo luận như Microsoft Sharepoint, với AI tổng quát, nội dung cần phải có chất lượng cao trước khi tùy chỉnh LLM theo bất kỳ cách nào. Trong một số trường hợp, chẳng hạn như với hệ thống Google Med-PaLM2, có rất nhiều cơ sở dữ liệu về kiến thức y khoa đã được tuyển chọn. Mặt khác, một công ty cần dựa vào sự giám sát của con người để đảm bảo rằng nội dung kiến thức là chính xác, kịp thời và không bị trùng lặp. Ví dụ, Morgan Stanley có một nhóm khoảng 20 nhà quản lý tri thức ở Philippines, những người liên tục chấm điểm các tài liệu theo nhiều tiêu chí; những điều này xác định sự phù hợp để kết hợp vào hệ thống GPT-4. Hầu hết các công ty không có nội dung được quản lý tốt sẽ gặp khó khăn khi làm như vậy chỉ vì mục đích này.
Morgan Stanley cũng nhận thấy rằng việc duy trì kiến thức chất lượng cao sẽ dễ dàng hơn nhiều nếu tác giả nội dung nhận thức được cách tạo tài liệu hiệu quả. Họ được yêu cầu tham gia hai khóa học, một về công cụ quản lý tài liệu và khóa thứ hai về cách viết và gắn thẻ các tài liệu này. Đây là một thành phần trong phương pháp tiếp cận quản trị nội dung của công ty—một phương pháp có hệ thống để nắm bắt và quản lý nội dung kỹ thuật số quan trọng.
Tại Morningstar, những người sáng tạo nội dung đang được hướng dẫn loại nội dung nào hoạt động tốt với hệ thống Mo và loại nội dung nào không. Họ gửi nội dung của mình vào một hệ thống quản lý nội dung và nội dung đó được chuyển trực tiếp vào cơ sở dữ liệu vectơ cung cấp mô hình OpenAI.

Đảm bảo và Đánh giá Chất lượng

Một khía cạnh quan trọng của việc quản lý nội dung AI tổng quát là đảm bảo chất lượng. AI sáng tạo đôi khi được biết đến rộng rãi là có “ảo giác”, tự tin tuyên bố những sự thật không chính xác hoặc không tồn tại. Các lỗi loại này có thể gây rắc rối cho các doanh nghiệp nhưng có thể gây chết người trong các ứng dụng chăm sóc sức khỏe. Tin tốt là các công ty đã điều chỉnh LLM của họ dựa trên thông tin cụ thể về tên miền đã nhận thấy rằng ảo giác ít gây ra vấn đề hơn so với LLM hiện có, ít nhất là nếu không có các cuộc đối thoại mở rộng hoặc lời nhắc phi kinh doanh.
Các công ty áp dụng các phương pháp này để quản lý tri thức AI tổng quát nên phát triển một chiến lược đánh giá. Ví dụ: đối với BloombergGPT, nhằm mục đích trả lời các câu hỏi về tài chính và đầu tư, hệ thống được đánh giá dựa trên các tác vụ tài chính trên tập dữ liệu công khai, được đặt tên là nhận dạng thực thể, khả năng phân tích tình cảm và một tập hợp các tác vụ lý luận và xử lý ngôn ngữ tự nhiên chung. Hệ thống Google Med-PaLM2, cuối cùng được định hướng để trả lời các câu hỏi y tế của bệnh nhân và bác sĩ, đã có một chiến lược đánh giá sâu rộng hơn nhiều, phản ánh tầm quan trọng của độ chính xác và an toàn trong lĩnh vực y tế.
Sống hay chết không phải là vấn đề tại Morgan Stanley, nhưng việc đưa ra những câu trả lời chính xác cao cho các câu hỏi về tài chính và đầu tư là điều quan trọng đối với công ty, khách hàng và cơ quan quản lý của công ty. Các câu trả lời do hệ thống cung cấp đã được đánh giá cẩn thận bởi những người đánh giá trước khi nó được phát hành cho bất kỳ người dùng nào. Sau đó, nó đã được thử nghiệm trong vài tháng bởi 300 cố vấn tài chính. Là cách tiếp cận chính để đánh giá liên tục, Morgan Stanley có một bộ 400 “câu hỏi vàng” đã biết câu trả lời đúng. Mỗi khi có bất kỳ thay đổi nào đối với hệ thống, nhân viên sẽ kiểm tra nó bằng các câu hỏi vàng để xem liệu có bất kỳ câu trả lời “thoái trào” hoặc kém chính xác nào không.

Các vấn đề pháp lý và quản trị

Các vấn đề pháp lý và quản trị liên quan đến triển khai LLM rất phức tạp và đang phát triển, dẫn đến các yếu tố rủi ro liên quan đến sở hữu trí tuệ, quyền riêng tư và bảo mật dữ liệu, thành kiến và đạo đức cũng như kết quả sai/không chính xác. Hiện tại, tình trạng pháp lý của đầu ra LLM vẫn chưa rõ ràng. Vì các LLM không tạo ra bản sao chính xác của bất kỳ văn bản nào được sử dụng để huấn luyện mô hình, nên nhiều nhà quan sát pháp lý cảm thấy rằng các điều khoản về “sử dụng hợp lý” của luật bản quyền sẽ áp dụng cho họ, mặc dù điều này chưa được thử nghiệm tại tòa án (và không tất cả các quốc gia đều có quy định như vậy trong luật bản quyền của họ). Trong mọi trường hợp, bất kỳ công ty nào sử dụng rộng rãi AI tổng quát để quản lý kiến thức (hoặc hầu hết các mục đích khác cho vấn đề đó) đều nên có đại diện pháp lý tham gia vào quá trình tạo và quản trị cho các LLM được điều chỉnh. Ví dụ, tại Morningstar,
Lời nhắc của người dùng về các LLM có sẵn công khai được sử dụng để đào tạo các phiên bản hệ thống trong tương lai, vì vậy một số công ty ( ví dụ như Samsung ) đã lo sợ việc truyền bá thông tin bí mật và riêng tư và cấm nhân viên sử dụng LLM. Tuy nhiên, nỗ lực của hầu hết các công ty nhằm điều chỉnh LLM với nội dung dành riêng cho miền được thực hiện trên các phiên bản riêng tư của các mô hình mà người dùng công cộng không thể truy cập được, vì vậy đây không phải là vấn đề. Ngoài ra, một số hệ thống AI tổng quát như ChatGPT cho phép người dùng tắt tính năng thu thập lịch sử trò chuyện, điều này có thể giải quyết các vấn đề bảo mật ngay cả trên các hệ thống công cộng.
Để giải quyết các mối lo ngại về tính bảo mật và quyền riêng tư, một số nhà cung cấp đang cung cấp các tính năng bảo mật và an toàn nâng cao và được cải tiến cho các LLM bao gồm xóa lời nhắc của người dùng, hạn chế một số chủ đề nhất định cũng như ngăn nhập mã nguồn và dữ liệu hợp pháp vào các LLM có thể truy cập công khai. Hơn nữa, các nhà cung cấp hệ thống phần mềm doanh nghiệp đang kết hợp “Lớp tin cậy” trong các sản phẩm và dịch vụ của họ. Ví dụ: Salesforce đã kết hợp tính năng Einstein GPT của mình vào bộ AI Cloud để giải quyết “Khoảng cách tin cậy AI” giữa các công ty mong muốn triển khai nhanh các khả năng LLM và những rủi ro nói trên mà các hệ thống này gây ra trong môi trường kinh doanh.

Định hình hành vi người dùng

Tính dễ sử dụng, tính khả dụng rộng rãi và các câu trả lời hữu ích trải rộng trên nhiều lĩnh vực kiến thức khác nhau đã dẫn đến việc nhân viên áp dụng quản lý kiến thức tổng quát dựa trên AI một cách nhanh chóng và có phần tự nhiên và tự nhiên. Ví dụ: một cuộc khảo sát gần đây chỉ ra rằng hơn một phần ba số nhân viên được khảo sát đã sử dụng AI tổng quát trong công việc của họ, nhưng 68% số người được hỏi không thông báo cho người giám sát của họ rằng họ đang sử dụng công cụ này. Để nhận ra các cơ hội và quản lý rủi ro tiềm ẩn của các ứng dụng AI tổng quát đối với quản lý tri thức, các công ty cần phát triển văn hóa minh bạch và trách nhiệm giải trình để làm cho các hệ thống quản lý tri thức dựa trên AI tổng quát thành công.
Ngoài việc thực hiện các chính sách và hướng dẫn, người dùng cần hiểu cách kết hợp an toàn và hiệu quả các khả năng AI tổng quát vào các nhiệm vụ của họ để nâng cao hiệu suất và năng suất. Các khả năng AI sáng tạo, bao gồm nhận thức về bối cảnh và lịch sử, tạo nội dung mới bằng cách tổng hợp hoặc kết hợp kiến thức từ nhiều nguồn khác nhau và dự đoán dựa trên dữ liệu, có thể hỗ trợ đắc lực cho công việc tri thức. Các hệ thống quản lý tri thức dựa trên AI sáng tạo có thể tự động hóa các quy trình tìm kiếm thông tin chuyên sâu (ví dụ: nghiên cứu trường hợp pháp lý) cũng như các tác vụ nhận thức có khối lượng lớn và độ phức tạp thấp, chẳng hạn như trả lời email thông thường của khách hàng. Cách tiếp cận này làm tăng hiệu quả của nhân viên, giải phóng họ để nỗ lực nhiều hơn vào các khía cạnh ra quyết định và giải quyết vấn đề phức tạp trong công việc của họ.
Một số hành vi cụ thể có thể được mong muốn khắc sâu — thông qua đào tạo hoặc chính sách — bao gồm:
Kiến thức về những loại nội dung có sẵn thông qua hệ thống;
- Cách tạo lời nhắc hiệu quả;
- Loại lời nhắc và đối thoại nào được phép và loại nào không;
- Cách thức yêu cầu bổ sung nội dung kiến thức bổ sung vào hệ thống;
- Cách thức sử dụng các phản hồi của hệ thống trong giao dịch với khách hàng và đối tác;
- Cách tạo nội dung mới một cách hữu ích và hiệu quả.
Cả Morgan Stanley và Morningstar đều đào tạo cụ thể những người sáng tạo nội dung về cách tốt nhất để tạo và gắn thẻ nội dung cũng như loại nội dung nào phù hợp nhất với việc sử dụng AI tổng quát.

“Mọi thứ đang tiến triển rất nhanh”

Một trong những giám đốc điều hành mà chúng tôi phỏng vấn đã nói: “Tôi có thể cho bạn biết mọi thứ ngày nay như thế nào. Nhưng mọi thứ đang tiến triển rất nhanh trong lĩnh vực này.” LLM mới và cách tiếp cận mới để điều chỉnh nội dung của họ được công bố hàng ngày, cũng như các sản phẩm mới từ các nhà cung cấp có nội dung hoặc nhiệm vụ cụ thể. Bất kỳ công ty nào cam kết đưa kiến thức của mình vào một hệ thống AI tổng quát nên chuẩn bị để sửa đổi cách tiếp cận vấn đề thường xuyên trong vài năm tới.
Mặc dù có nhiều vấn đề thách thức liên quan đến việc xây dựng và sử dụng các hệ thống AI tổng quát được đào tạo dựa trên nội dung kiến thức của chính công ty, nhưng chúng tôi tin rằng lợi ích chung cho công ty là xứng đáng với nỗ lực giải quyết những thách thức này. Tầm nhìn dài hạn về việc cho phép bất kỳ nhân viên nào — và cả khách hàng — dễ dàng tiếp cận kiến thức quan trọng trong và ngoài công ty để nâng cao năng suất và đổi mới là một sức hút mạnh mẽ. AI sáng tạo dường như là công nghệ cuối cùng đã biến điều đó thành hiện thực.
Bài viết gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top