Tại sao Nhật Bản đang xây dựng phiên bản ChatGPT của riêng mình?

Một số nhà nghiên cứu Nhật Bản cảm thấy hệ thống AI được đào tạo bằng ngoại ngữ không thể nắm bắt được sự phức tạp của ngôn ngữ và văn hóa Nhật Bản
VNReview.vn

Nhật Bản đang xây dựng các phiên bản ChatGPT của riêng mình - chatbot trí tuệ nhân tạo (AI) do công ty OpenAI của Mỹ sản xuất, đã trở thành hiện tượng trên toàn thế giới sau khi nó được ra mắt chỉ chưa đầy một năm trước. Chính phủ Nhật Bản và các công ty công nghệ lớn như NEC, Fujitsu và SoftBank đang đầu tư hàng trăm triệu đô la vào việc tạo ra các hệ thống AI dựa trên cùng một công nghệ cơ bản, được gọi là mô hình ngôn ngữ lớn (LLM), nhưng sử dụng tiếng Nhật, chứ không phải là bản dịch của phiên bản tiếng Anh. Keisuke Sakaguchi, nhà nghiên cứu chuyên về ngôn ngữ tự nhiên tại Đại học Tohoku ở Nhật Bản, cho biết: “Các LLM công cộng hiện tại, chẳng hạn như GPT, vượt trội về tiếng Anh nhưng thường kém tiếng Nhật do sự khác biệt trong hệ thống bảng chữ cái, dữ liệu hạn chế và các yếu tố khác”. xử lý.
ENGLISH BIAS LLM thường sử dụng lượng dữ liệu khổng lồ từ các nguồn có sẵn công khai để tìm hiểu các mẫu giọng nói và văn xuôi tự nhiên. Họ được đào tạo để dự đoán từ tiếp theo dựa trên các từ trước đó trong một đoạn văn bản. Phần lớn văn bản mà mô hình trước đây của ChatGPT, GPT-3, được đào tạo đều bằng tiếng Anh. Khả năng kỳ lạ của ChatGPT trong việc tổ chức các cuộc trò chuyện giống con người đã khiến các nhà nghiên cứu vừa vui mừng vừa lo ngại. Một số người coi nó như một công cụ tiết kiệm lao động tiềm năng; những người khác lo lắng rằng nó có thể được sử dụng để làm giả các bài báo hoặc dữ liệu khoa học. Tại Nhật Bản, người ta lo ngại rằng các hệ thống AI được đào tạo trên bộ dữ liệu bằng các ngôn ngữ khác không thể nắm bắt được sự phức tạp của ngôn ngữ và văn hóa Nhật Bản. Cấu trúc câu trong tiếng Nhật hoàn toàn khác với tiếng Anh. Do đó, ChatGPT phải dịch truy vấn tiếng Nhật sang tiếng Anh, tìm câu trả lời rồi dịch lại câu trả lời sang tiếng Nhật. Trong khi tiếng Anh chỉ có 26 chữ cái thì chữ viết tiếng Nhật bao gồm hai bộ 48 ký tự cơ bản, cộng với 2.136 ký tự tiếng Trung hay chữ kanji được sử dụng thường xuyên. Hầu hết các chữ kanji có hai cách phát âm trở lên và có khoảng 50.000 chữ kanji hiếm khi được sử dụng. Với sự phức tạp đó, không có gì đáng ngạc nhiên khi ChatGPT có thể gặp khó khăn với ngôn ngữ này. Trong tiếng Nhật, ChatGPT “đôi khi tạo ra những ký tự cực kỳ hiếm mà hầu hết mọi người chưa từng thấy trước đây và tạo ra những từ kỳ lạ chưa biết”, Sakaguchi nói.
CHUẨN MỰC VĂN HÓA
Để LLM trở nên hữu ích và thậm chí khả thi về mặt thương mại, nó cần phản ánh chính xác các thực tiễn văn hóa cũng như ngôn ngữ. Ví dụ: nếu ChatGPT được nhắc viết e-mail xin việc bằng tiếng Nhật, nó có thể bỏ qua các cách diễn đạt lịch sự tiêu chuẩn và trông giống như một bản dịch rõ ràng từ tiếng Anh. Để đánh giá mức độ nhạy cảm của LLM đối với văn hóa Nhật Bản, một nhóm nhà nghiên cứu đã đưa ra Rakuda, một bảng xếp hạng mức độ LLM có thể trả lời các câu hỏi mở về các chủ đề tiếng Nhật. Người đồng sáng lập Rakuda, Sam Passaglia và các đồng nghiệp của ông đã yêu cầu ChatGPT so sánh tính trôi chảy và phù hợp về mặt văn hóa của các câu trả lời với những lời nhắc tiêu chuẩn. Việc họ sử dụng công cụ để xếp hạng kết quả dựa trên một bản in trước được xuất bản vào tháng 6 cho thấy GPT-4 đồng ý với những người đánh giá là con người trong 87% thời gian1. LLM nguồn mở tốt nhất của Nhật Bản đứng thứ tư trên Rakuda, trong khi ở vị trí đầu tiên, có lẽ không có gì đáng ngạc nhiên khi nó cũng là giám khảo của cuộc thi, là GPT-4. Passaglia, một nhà vật lý tại Đại học Tokyo, người nghiên cứu các mô hình ngôn ngữ Nhật Bản, cho biết: “Chắc chắn LLM của Nhật Bản đang trở nên tốt hơn nhiều, nhưng chúng còn thua xa GPT-4”. Nhưng về nguyên tắc, không có lý do gì mà LLM của Nhật Bản không thể ngang bằng hoặc vượt qua GPT-4 trong tương lai. “Đây không phải là không thể vượt qua về mặt kỹ thuật mà chỉ là vấn đề về nguồn lực.”
Một nỗ lực lớn để tạo ra LLM tiếng Nhật là sử dụng siêu máy tính Fugaku của Nhật Bản, một trong những siêu máy tính nhanh nhất thế giới, đào tạo nó chủ yếu về đầu vào tiếng Nhật. Được hỗ trợ bởi Viện Công nghệ Tokyo, Đại học Tohoku, Fujitsu và nhóm trung tâm nghiên cứu RIKEN do chính phủ tài trợ, LLM kết quả dự kiến sẽ được phát hành vào năm tới. Nó sẽ tham gia cùng các LLM nguồn mở khác để cung cấp mã của nó cho tất cả người dùng, không giống như GPT-4 và các mô hình độc quyền khác. Theo Sakaguchi, người tham gia dự án, nhóm nghiên cứu hy vọng sẽ cung cấp cho nó ít nhất 30 tỷ thông số, là những giá trị ảnh hưởng đến sản lượng của nó và có thể dùng làm thước đo cho quy mô của nó. Tuy nhiên, Fugaku LLM có thể được kế nhiệm bởi một cái thậm chí còn lớn hơn. Bộ Giáo dục, Văn hóa, Thể thao, Khoa học và Công nghệ Nhật Bản đang tài trợ cho việc tạo ra một chương trình AI của Nhật Bản phù hợp với nhu cầu khoa học nhằm tạo ra các giả thuyết khoa học bằng cách học hỏi từ các nghiên cứu đã được công bố, đẩy nhanh việc xác định mục tiêu nghiên cứu. Mô hình này có thể bắt đầu với 100 tỷ tham số, chỉ bằng hơn một nửa kích thước của GPT-3 và sẽ được mở rộng theo thời gian. Makoto Taiji, phó giám đốc tại Trung tâm Nghiên cứu Động lực Hệ thống Sinh học RIKEN, cho biết về dự án: “Chúng tôi hy vọng sẽ tăng tốc đáng kể chu trình nghiên cứu khoa học và mở rộng không gian tìm kiếm”. LLM có thể tiêu tốn ít nhất 30 tỷ Yên (204 triệu USD) để phát triển và dự kiến sẽ được phát hành rộng rãi vào năm 2031.
KHẢ NĂNG MỞ RỘNG
Các công ty Nhật Bản khác đã thương mại hóa hoặc có kế hoạch thương mại hóa công nghệ LLM của riêng họ. Nhà sản xuất siêu máy tính NEC đã bắt đầu sử dụng AI tổng quát dựa trên ngôn ngữ tiếng Nhật vào tháng 5 và tuyên bố rằng nó giúp giảm 50% thời gian cần thiết để tạo báo cáo nội bộ và mã nguồn phần mềm nội bộ xuống 80%. Vào tháng 7, công ty bắt đầu cung cấp các dịch vụ AI có thể tùy chỉnh cho khách hàng. Masafumi Oyamada, nhà nghiên cứu chính cấp cao tại Phòng thí nghiệm khoa học dữ liệu NEC, nói rằng nó có thể được sử dụng “trong nhiều ngành công nghiệp, chẳng hạn như tài chính, vận tải và hậu cần, phân phối và sản xuất”. Ông nói thêm rằng các nhà nghiên cứu có thể sử dụng nó để viết mã, giúp viết và chỉnh sửa các bài báo cũng như khảo sát các bài báo đã xuất bản hiện có, cùng nhiều nhiệm vụ khác. Trong khi đó, công ty viễn thông Nhật Bản SoftBank đang đầu tư khoảng 20 tỷ yên vào AI tổng hợp được đào tạo trên văn bản tiếng Nhật và có kế hoạch ra mắt LLM của riêng mình vào năm tới. Softbank, có 40 triệu khách hàng và hợp tác với nhà đầu tư OpenAI Microsoft, cho biết họ nhằm mục đích giúp các công ty số hóa hoạt động kinh doanh của họ và tăng năng suất. SoftBank kỳ vọng rằng LLM của họ sẽ được các trường đại học, tổ chức nghiên cứu và các tổ chức khác sử dụng. Trong khi đó, các nhà nghiên cứu Nhật Bản hy vọng rằng một chatbot AI chính xác, hiệu quả và được sản xuất tại Nhật Bản có thể giúp thúc đẩy khoa học và thu hẹp khoảng cách giữa Nhật Bản và phần còn lại của thế giới.
Shotaro Kinoshita, nhà nghiên cứu công nghệ y tế tại Trường Y thuộc Đại học Keio, cho biết: “Nếu phiên bản ChatGPT tiếng Nhật có thể được thực hiện chính xác, nó sẽ mang lại kết quả tốt hơn cho những người muốn học tiếng Nhật hoặc tiến hành nghiên cứu về Nhật Bản”. Tokyo. “Kết quả là, có thể có tác động tích cực đến nghiên cứu chung quốc tế.”
Tham khảo bài viết gốc tại đây:
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top