5 cách các nhà lãnh đạo doanh nghiệp có thể sử dụng các mô hình ngôn ngữ lớn để mở ra những khả năng mới

Rất có thể bạn đã bỏ lỡ tin đồn xung quanh AI tổng quát và các mô hình ngôn ngữ lớn (LLM) cụ thể như ChatGPT.
5 cách các nhà lãnh đạo doanh nghiệp có thể sử dụng các mô hình ngôn ngữ lớn để mở ra những khả năng mới
Trong những tháng gần đây, đây là những chủ đề nóng ở khắp mọi nơi, từ mạng xã hội đến tin tức cho đến các cuộc trò chuyện hàng ngày và chúng ta chỉ mới bắt đầu tìm hiểu những khả năng của AI tổng quát
Nói chung, gen AI đề cập đến một loại kỹ thuật máy học (ML) có thể tạo ra nội dung như hình ảnh, âm nhạc và văn bản gần giống với nội dung do con người tạo ra. Mặt khác, LLM là mạng lưới thần kinh với hàng tỷ tham số đã được đào tạo trên một lượng lớn dữ liệu văn bản, cho phép chúng hiểu, xử lý và tạo ra ngôn ngữ giống như con người.Cùng với nhau, những công nghệ này cung cấp một loạt các ứng dụng có tiềm năng định hình lại các ngành công nghiệp khác nhau và nâng cao chất lượng tương tác giữa con người và máy móc. Bằng cách khám phá những ứng dụng này, chủ sở hữu doanh nghiệp và những người ra quyết định của doanh nghiệp có thể có được nguồn cảm hứng quý giá, thúc đẩy tăng trưởng nhanh và đạt được kết quả cải thiện rõ rệt thông qua tạo nguyên mẫu nhanh. Ưu điểm bổ sung của gen AI là hầu hết các ứng dụng này yêu cầu chuyên môn tối thiểu và không yêu cầu đào tạo thêm về mô hình.
Tuyên bố nhanh từ chối trách nhiệm: Mọi người thường có xu hướng liên kết gen AI độc quyền với ChatGPT, nhưng có rất nhiều mô hình từ các nhà cung cấp khác, như T5 của Google, Llama của Meta, Falcon của TII và Claude của Anthropic. Mặc dù hầu hết các ứng dụng được thảo luận trong bài viết này đã sử dụng ChatGPT của OpenAI, nhưng bạn có thể dễ dàng điều chỉnh và chuyển đổi LLM cơ bản để phù hợp với ngân sách điện toán cụ thể, độ trễ (bạn cần mô hình của mình tạo ra các lần hoàn thành nhanh như thế nào — các mô hình nhỏ hơn cho phép tải nhanh hơn và giảm độ trễ suy luận) và tác vụ xuôi dòng.
1. Kết nối LLM với dữ liệu bên ngoài
Các LLM thể hiện khả năng ấn tượng ở nhiều tác vụ ngay lập tức, chẳng hạn như dịch thuật và tóm tắt , mà không yêu cầu tùy chỉnh ban đầu. Lý do họ rất giỏi trong các nhiệm vụ chung này là vì mô hình nền tảng cơ bản đã được đào tạo trên các tập dữ liệu lớn nhưng chung chung. Tuy nhiên, năng lực này có thể không mở rộng liền mạch cho các nhiệm vụ cụ thể theo miền bao gồm, chẳng hạn như cung cấp câu trả lời về báo cáo hàng năm của công ty bạn. Đây là lúc Thế hệ tăng cường truy xuất (RAG) xuất hiện trong bức tranh.
RAG là một khuôn khổ để xây dựng các hệ thống hỗ trợ LLM sử dụng các nguồn dữ liệu bên ngoài. RAG cấp cho LLM quyền truy cập vào dữ liệu mà nó sẽ không thấy trong quá trình đào tạo trước, nhưng điều đó là cần thiết để cung cấp chính xác các câu trả lời phù hợp và chính xác. RAG cho phép các mô hình ngôn ngữ như ChatGPT cung cấp câu trả lời tốt hơn cho các câu hỏi dành riêng cho miền bằng cách kết hợp khả năng xử lý ngôn ngữ tự nhiên (NLP) của chúng với kiến thức bên ngoài, giảm thiểu các trường hợp tạo thông tin không chính xác hoặc “ảo giác”. Nó làm như vậy bằng cách:
Truy xuất thông tin liên quan từ các nguồn tri thức bên ngoài, chẳng hạn như bộ sưu tập tài liệu quy mô lớn, cơ sở dữ liệu hoặc internet. Mức độ liên quan dựa trên mức độ tương tự về ngữ nghĩa (được đo bằng cách sử dụng, giả sử, độ tương tự cosine) đối với câu hỏi của người dùng.
Bổ sung thông tin đã truy xuất cho câu hỏi ban đầu trong lời nhắc (để cung cấp ngữ cảnh hữu ích cho việc trả lời câu hỏi) và chuyển thông tin đó tới LLM để nó có thể tạo ra câu trả lời chính xác, phù hợp theo ngữ cảnh và có nhiều thông tin hơn.
Cách tiếp cận này làm cho LLM trở nên linh hoạt và hữu ích hơn trên nhiều lĩnh vực và ứng dụng khác nhau, bao gồm trả lời câu hỏi, tạo nội dung và hội thoại tương tác với quyền truy cập vào dữ liệu thời gian thực. Podurama, một ứng dụng podcast, đã tận dụng các kỹ thuật tương tự để xây dựng các chatbot đề xuất do AI cung cấp. Các bot này gợi ý một cách thành thạo các chương trình có liên quan dựa trên các truy vấn của người dùng, rút ra thông tin chi tiết từ bản ghi podcast để tinh chỉnh các đề xuất của họ.
Cách tiếp cận này cũng có giá trị trong quản lý khủng hoảng. PagerDuty, một nền tảng ứng phó sự cố SaaS, sử dụng LLM để tạo bản tóm tắt sự cố bằng cách sử dụng dữ liệu cơ bản như tiêu đề, mức độ nghiêm trọng hoặc các yếu tố khác và bổ sung bằng dữ liệu Slack nội bộ , nơi người phản hồi thảo luận chi tiết và chia sẻ các bản cập nhật khắc phục sự cố để tinh chỉnh chất lượng của bản tóm tắt .
Mặc dù RAG có vẻ phức tạp nhưng thư viện LangChain cung cấp cho các nhà phát triển các công cụ cần thiết để triển khai RAG và xây dựng các hệ thống trả lời câu hỏi phức tạp. (Trong nhiều trường hợp, bạn chỉ cần một dòng mã để bắt đầu). LangChain là một thư viện mạnh mẽ có thể tăng cường và nâng cao hiệu suất của LLM trong thời gian chạy bằng cách cung cấp quyền truy cập vào các nguồn dữ liệu bên ngoài hoặc kết nối với các API hiện có của các ứng dụng khác.
Khi được kết hợp với các LLM mã nguồn mở (chẳng hạn như Llama 2 hoặc BLOOM), RAG nổi lên như một kiến trúc mạnh mẽ đặc biệt để xử lý các tài liệu bí mật. Điều đặc biệt thú vị là LangChain tự hào có hơn 120 tích hợp (tại thời điểm viết), cho phép chức năng liền mạch với dữ liệu có cấu trúc (SQL), nội dung phi cấu trúc (PDF), đoạn mã và thậm chí cả video YouTube.
2. Kết nối LLM với các ứng dụng bên ngoài
Giống như sử dụng các nguồn dữ liệu bên ngoài, LLM có thể thiết lập kết nối với các ứng dụng bên ngoài phù hợp với các nhiệm vụ cụ thể. Điều này đặc biệt có giá trị khi một mô hình thỉnh thoảng tạo ra sự không chính xác do thông tin lỗi thời. Ví dụ: khi đặt câu hỏi cho Thủ tướng hiện tại của Vương quốc Anh, ChatGPT có thể tiếp tục đề cập đến Boris Johnson, mặc dù ông đã rời nhiệm sở vào cuối năm 2022. Hạn chế này phát sinh do kiến thức của mô hình cố định ở giai đoạn đào tạo trước và không bao gồm bài viết -các sự kiện đào tạo như cuộc hẹn của Rishi Sunak.
Để giải quyết những thách thức như vậy, các LLM có thể được tăng cường bằng cách tích hợp chúng với thế giới bên ngoài thông qua các đại lý. Các tác nhân này phục vụ để giảm thiểu việc không có quyền truy cập internet vốn có trong LLM, cho phép họ tương tác với các công cụ như API thời tiết (dành cho dữ liệu thời tiết thời gian thực) hoặc SerpAPI (dành cho tìm kiếm trên web). Một ví dụ đáng chú ý là chatbot của Expedia, hướng dẫn người dùng khám phá và đặt phòng khách sạn, trả lời các truy vấn về chỗ ở và đưa ra các đề xuất du lịch được cá nhân hóa.
Một ứng dụng hấp dẫn khác liên quan đến việc tự động gắn nhãn các tweet trong thời gian thực với các thuộc tính cụ thể như tình cảm, sự gây hấn và ngôn ngữ. Từ góc độ tiếp thị và quảng cáo, một đại lý kết nối với các công cụ thương mại điện tử có thể giúp LLM giới thiệu các sản phẩm hoặc gói dựa trên sở thích và nội dung của người dùng.
3. Xâu chuỗi LLM
LLM thường được sử dụng riêng lẻ cho hầu hết các ứng dụng. Tuy nhiên, chuỗi LLM gần đây đã đạt được sức hút cho các ứng dụng phức tạp. Nó liên quan đến việc liên kết nhiều LLM theo thứ tự để thực hiện các tác vụ phức tạp hơn. Mỗi LLM chuyên về một khía cạnh cụ thể và họ hợp tác để tạo ra các kết quả đầu ra toàn diện và tinh tế.
Cách tiếp cận này đã được áp dụng trong dịch thuật ngôn ngữ, trong đó các LLM được sử dụng liên tiếp để chuyển đổi văn bản từ ngôn ngữ này sang ngôn ngữ khác. Các công ty như Microsoft đã đề xuất chuỗi LLM cho các dịch vụ dịch thuật trong trường hợp các ngôn ngữ có nguồn lực thấp, cho phép dịch các từ hiếm chính xác hơn và theo ngữ cảnh.
Cách tiếp cận này cũng có thể cung cấp một số trường hợp sử dụng có giá trị trong các lĩnh vực khác. Đối với các công ty hướng tới người tiêu dùng, chuỗi LLM có thể tạo ra trải nghiệm hỗ trợ khách hàng năng động, có thể nâng cao tương tác với khách hàng, chất lượng dịch vụ và hiệu quả hoạt động.
Chẳng hạn, LLM đầu tiên có thể phân loại các câu hỏi của khách hàng và phân loại chúng, chuyển chúng đến các LLM chuyên biệt để có phản hồi chính xác hơn. Trong sản xuất, chuỗi LLM có thể được sử dụng để tối ưu hóa quy trình chuỗi cung ứng từ đầu đến cuối bằng cách xâu chuỗi các LLM chuyên biệt để dự báo nhu cầu, quản lý hàng tồn kho, lựa chọn nhà cung cấp và đánh giá rủi ro.
4. Trích xuất các thực thể bằng LLM
Trước khi LLM xuất hiện, việc trích xuất thực thể dựa trên các phương pháp ML thâm dụng lao động liên quan đến thu thập dữ liệu, ghi nhãn và đào tạo mô hình phức tạp. Quá trình này rất cồng kềnh và đòi hỏi tài nguyên. Tuy nhiên, với LLM, mô hình đã thay đổi. Giờ đây, việc trích xuất đối tượng được đơn giản hóa thành một dấu nhắc đơn thuần, nơi người dùng có thể dễ dàng truy vấn mô hình để trích xuất các đối tượng từ văn bản. Thú vị hơn, khi trích xuất các thực thể từ văn bản phi cấu trúc như PDF, bạn thậm chí có thể xác định lược đồ và các thuộc tính quan tâm trong lời nhắc.
Các ví dụ tiềm năng bao gồm các tổ chức tài chính có thể sử dụng LLM để trích xuất các thực thể tài chính quan trọng như tên công ty, ký hiệu đánh dấu và số liệu tài chính từ các bài báo, cho phép phân tích thị trường chính xác và kịp thời. Tương tự, nó có thể được các đại lý quảng cáo/tiếp thị sử dụng để quản lý tài sản kỹ thuật số của họ bằng cách sử dụng trích xuất thực thể dựa trên LLM để phân loại tập lệnh quảng cáo, diễn viên, địa điểm và ngày, tạo điều kiện lập chỉ mục nội dung hiệu quả và tái sử dụng tài sản.
5. Nâng cao tính minh bạch của LLM với lời nhắc ReAct
Mặc dù nhận được phản hồi trực tiếp từ các LLM chắc chắn là có giá trị, nhưng tính không rõ ràng của cách tiếp cận hộp đen thường làm người dùng do dự. Ngoài ra, khi phải đối mặt với phản hồi không chính xác cho một truy vấn phức tạp, việc xác định chính xác bước dẫn đến lỗi trở nên khó khăn. Một sự cố có hệ thống của quy trình có thể hỗ trợ rất nhiều trong quá trình gỡ lỗi. Đây chính là lúc khuôn khổ Lý do và Hành động (ReAct) phát huy tác dụng, đưa ra giải pháp cho những thách thức này.
ReAct nhấn mạnh vào lý luận từng bước để làm cho LLM tạo ra các giải pháp giống như con người. Mục tiêu là làm cho mô hình suy nghĩ thông qua các nhiệm vụ giống như con người làm và giải thích lý do của nó bằng ngôn ngữ. Người ta có thể dễ dàng vận hành phương pháp này vì việc tạo lời nhắc ReAct là một nhiệm vụ đơn giản liên quan đến việc người chú thích là con người thể hiện suy nghĩ của họ bằng ngôn ngữ tự nhiên cùng với các hành động tương ứng mà họ đã thực hiện. Chỉ với một số trường hợp như vậy, mô hình sẽ học cách khái quát hóa tốt cho các nhiệm vụ mới.
Lấy cảm hứng từ khuôn khổ này, nhiều công ty công nghệ giáo dục đang thử nghiệm các công cụ để cung cấp cho người học sự hỗ trợ cá nhân hóa với các khóa học và bài tập cũng như giáo án do AI cung cấp cho người hướng dẫn. Để đạt được mục tiêu này, Khan Academy đã phát triển Khanmigo, một chatbot được thiết kế để hướng dẫn học sinh giải các bài toán và bài tập viết mã. Thay vì chỉ đưa ra câu trả lời theo yêu cầu, Khanmigo khuyến khích học sinh giải quyết vấn đề một cách chu đáo bằng cách hướng dẫn học sinh thực hiện quy trình lập luận. Cách tiếp cận này không chỉ giúp ngăn chặn đạo văn mà còn trao quyền cho sinh viên nắm bắt các khái niệm một cách độc lập.
Phần kết luận
Trong khi cuộc tranh luận có thể đang diễn ra về khả năng AI thay thế con người trong vai trò của họ hoặc thành tựu cuối cùng của sự kỳ dị công nghệ (như được dự đoán bởi cha đỡ đầu của AI, Geoffrey Hinton), thì vẫn có một điều chắc chắn: LLM chắc chắn sẽ đóng một vai trò then chốt trong xúc tiến các nhiệm vụ khác nhau trên một loạt các lĩnh vực. Chúng có khả năng nâng cao hiệu quả, thúc đẩy sự sáng tạo và tinh chỉnh các quy trình ra quyết định, đồng thời đơn giản hóa các nhiệm vụ phức tạp.
Đối với các chuyên gia trong các vai trò công nghệ khác nhau, chẳng hạn như nhà khoa học dữ liệu, nhà phát triển phần mềm và chủ sở hữu sản phẩm, LLM có thể cung cấp các công cụ có giá trị để hợp lý hóa quy trình công việc, thu thập thông tin chi tiết và mở khóa các khả năng mới.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top