Phạm Thanh Bình
Writer
Các nhà nghiên cứu đã tạo ra một nhà khoa học AI thuần túy có thể tự động hóa toàn bộ quá trình nghiên cứu khoa học, từ việc xem xét tài liệu đến viết bài. Tuy nhiên, các nhà khoa học vẫn còn có những quan điểm khác nhau về việc sử dụng AI trong nghiên cứu khoa học.
Với sự tiến bộ của trí tuệ nhân tạo (AI), ngày càng có nhiều nhà nghiên cứu cố gắng đưa AI vào từng bước của quá trình nghiên cứu khoa học. Tuy nhiên, đang có một cuộc tranh luận gay gắt trong cộng đồng học thuật về việc liệu AI có thể được sử dụng để thay thế các nhà khoa học hay không.
Gần đây, startup Sakana AI của Nhật Bản đã tạo ra một nhà khoa học trí tuệ nhân tạo thuần túy mà họ đặt tên là THE AI SCIENTIST (sau đây gọi tắt là Nhà khoa học AI), có thể làm việc liên tục 24/7 với chi phí 10 USD cho mỗi bài báo. Các kết quả hiện được công bố trên nền tảng arXiv.
Hình1
Nhà khoa học AI dựa trên mô hình ngôn ngữ lớn (LLM) là một quy trình làm việc hoàn chỉnh từ đầu đến cuối (như trong Hình 1) và hiện chỉ có thể tham gia vào nghiên cứu liên quan đến học máy. Nhà khoa học AI bắt đầu bằng cách tạo ra các chủ đề nghiên cứu mới, tìm kiếm tài liệu liên quan trực tuyến và xếp hạng các ý tưởng nghiên cứu dựa trên tính mới.
Trong giai đoạn thử nghiệm, Nhà khoa học AI có thể tự động viết và thực thi mã dựa trên các ý tưởng nghiên cứu được tạo ra. Bộ phận (tác nhân) chịu trách nhiệm xem xét mã sẽ đảm bảo rằng mã được tạo ra không chứa các ý tưởng nghiên cứu không liên quan nhằm giảm tác động của ảo tưởng về mô hình lớn (ảo tưởng mô hình lớn là nội dung được tạo ra có vẻ logic và mượt mà nhưng không phù hợp với kiến thức hiện có). Sau đó, Nhà khoa học AI sẽ liên tục tối ưu hóa thử nghiệm dựa trên kết quả chạy mã. Nếu thí nghiệm có thể tạo ra biểu đồ mô tả kết quả thí nghiệm, Nhà khoa học AI sẽ viết bản thảo trên giấy.
Nhà khoa học AI đã lấy nghiên cứu mô hình ngôn ngữ do NeurIPS, hội nghị hàng đầu trong lĩnh vực học máy, phát hành làm mẫu, sử dụng các mô hình lớn Claude 3.5, GPT-4 và bộ mã hóa Deepseek mã nguồn mở và Llama-3.1, và mỗi mô hình tạo ra 52 nghiên cứu ý tưởng; sau khi xem xét tính mới trong số đó, một số ít nghiên cứu đã bị loại bỏ vì chúng không có tính đổi mới và một số ý tưởng nghiên cứu không thể được xác minh bằng thực nghiệm (cuối cùng, khả năng lập trình mô hình lớn bị hạn chế) đã hoàn thành việc viết luận văn. Cuối cùng, tác nhân đánh giá được điều khiển bởi mô hình lớn sẽ tự động tạo ra các nhận xét và điểm đánh giá cho bản thảo (mục Điểm trung bình trong Bảng 1). Về mặt chi phí, chi phí sử dụng mô hình DeepSeek Coder để tạo ra mỗi bài báo chỉ là 10 USD.
Trong nghiên cứu này, tác giả đã chứng minh rằng bài đánh giá bài báo của tác nhân đánh giá AI và đánh giá của chuyên gia con người cho ICML 2022 (Hội nghị học máy) là phù hợp và điểm số bài báo của Nhà khoa học AI của đại lý đánh giá AI đã đạt đến mức trước đó. Giá trị trung bình của bài báo được công bố tại hội nghị máy học hàng đầu. Điều này dường như chỉ ra rằng Al Scientist đã thực hiện nghiên cứu cấp hội nghị hàng đầu.
Tất cả các bản thảo giấy, nhận xét đánh giá và mã do AI tạo ra trong nghiên cứu này đã được công khai. Sự cởi mở này cho phép các nhà nghiên cứu khác phân tích kết quả của Nhà khoa học AI. Vì vậy, sau khi nghiên cứu được công bố, một số người phát hiện ra rằng nó có “khuynh hướng phổ biến” và ưa chuộng những bài báo có tỷ lệ trích dẫn cao.
Bảng 1 Kết quả đánh giá quá trình tạo bài viết tự động của nhà khoa học AI trong lĩnh vực mô hình ngôn ngữ
Bình luận về nghiên cứu, Tom Hope, một nhà khoa học máy tính tại Viện AI của Allen, đã chỉ ra rằng "hiện tại nó không thể phát triển các hướng khoa học mới và hữu ích ngoài sự kết hợp hời hợt của các từ thông dụng cơ bản”, đồng thời do hạn chế về năng lực hiện tại của các mô hình lớn, nhiều ý tưởng nghiên cứu không thể tự động hóa cho các thí nghiệm. Tuy nhiên, ngay cả khi AI không thể hoàn thành nhiều nghiên cứu sáng tạo hơn trong thời gian ngắn, nó vẫn có thể tự động hóa các tác vụ lặp đi lặp lại. Ngoài ra, tác giả của AI Scientist chỉ ra rằng do tồn tại ảo ảnh mô hình lớn nên mã và kết quả của các bài viết do AI tạo ra cần phải được xem xét thủ công để tránh mã do AI tạo ra thay đổi các ràng buộc để đạt được mục tiêu hoặc lặp lại. các cuộc gọi khiến chương trình gặp sự cố.
Nghiên cứu này cung cấp bằng chứng sơ bộ cho thấy AI có tiềm năng tạo ra những khám phá khoa học một cách độc lập. Gerbrand Ceder, một nhà khoa học vật liệu tại Phòng thí nghiệm quốc gia Lawrence Berkeley cho biết: “Mặc dù hệ thống này hiện chỉ có thể được sử dụng trong lĩnh vực học máy nhưng một số nhà khoa học cho rằng nó có một tương lai tươi sáng”. Mô hình nghiên cứu khoa học hợp tác đa tác nhân cũng có thể được áp dụng cho các lĩnh vực nghiên cứu khác, đây cũng là hướng nghiên cứu trong tương lai được chỉ ra trong bài báo.
Mặc dù AI tự động hóa toàn bộ quá trình nghiên cứu khoa học nhưng tiến bộ hiện tại vẫn chưa đủ để chứng minh rằng AI có thể thay thế các nhà khoa học tiến hành nghiên cứu độc lập. Trong công việc thực tế, các nhà nghiên cứu khoa học hiện nay sử dụng các mô hình lớn nhiều hơn làm trợ lý nghiên cứu khoa học và sử dụng AI cho một phần nhất định của quá trình nghiên cứu khoa học: một ứng dụng tương đối thành công là trong lĩnh vực hóa học (khám phá thử nghiệm tự động thông qua các cánh tay robot điều khiển mô hình lớn) vật liệu mới), và kết hợp các mô hình lớn với ký hiệu để chứng minh tự động các định lý toán học.
Về cách AI có thể hỗ trợ các nhà nghiên cứu trong các nhiệm vụ nghiên cứu khoa học khác nhau, một nghiên cứu gần đây đã đưa ra một kết luận thận trọng hơn.
Nghiên cứu này sử dụng bốn thí nghiệm tâm lý để kiểm tra bốn khả năng của ChatGPT trong lĩnh vực nghiên cứu khoa học, đó là tổ chức tài liệu nghiên cứu khoa học, tạo ra dữ liệu nghiên cứu khoa học, dự đoán các ý tưởng nghiên cứu khoa học mới và xem xét liệu quy trình nghiên cứu khoa học có tuân thủ các chuẩn mực đạo đức hay không. Nghiên cứu cho thấy do sự tồn tại của ảo ảnh mô hình lớn, GPT-3.5 và GPT-4 đã tạo ra các tham chiếu hư cấu lần lượt là 36,0% và 5,4% (mặc dù GPT-4 thừa nhận rằng nó đã tạo ra các tham chiếu hư cấu ), chỉ ra rằng hai tham chiếu lớn này mô hình không phù hợp cho công việc sắp xếp tài liệu. GPT-3.5 và GPT-4 có thể sao chép các mô hình sai lệch văn hóa đã được phát hiện trước đó trong tập hợp lớn, do đó ChatGPT có thể mô phỏng việc tạo dữ liệu phù hợp với các kết quả đã biết.
Tuy nhiên, cả hai mô hình lớn đều không thành công với nội dung mới không có trong dữ liệu huấn luyện và cũng không sử dụng đáng kể thông tin mới để dự đoán những kết quả mới lạ hơn và ít mới lạ hơn, cho thấy rằng các mô hình lớn không giỏi tạo ra dữ liệu nghiên cứu mới – Hạn chế khả năng suy luận những điều ngoài dữ liệu đào tạo. Tuy nhiên, GPT-4 đã được chứng minh là có thể phát hiện các hành vi sai trái trong học thuật như thao túng dữ liệu (p-hacking) hoặc vi phạm các giao thức mở, cho thấy AI có tiềm năng trở thành nhà đánh giá đạo đức nghiên cứu khoa học đủ tiêu chuẩn.
Sự khai sáng mà nghiên cứu này mang lại cho các học giả là khả năng của các mô hình lớn trong việc hỗ trợ nghiên cứu khoa học có thể không nhất thiết phải đáp ứng các mục tiêu đặt ra. Ví dụ, mọi người sẽ nghĩ rằng các mô hình lớn xử lý văn bản tốt có thể tổ chức các tài liệu. Tuy nhiên, do sự tồn tại của ảo tưởng nên thực tế không phải vậy và việc tổ chức tài liệu không chỉ là liệt kê các nghiên cứu có liên quan mà còn là xây dựng một khuôn khổ nhận thức với logic rõ ràng. Các mô hình lớn hoạt động tốt hơn trong việc xem xét liệu nghiên cứu có tuân thủ các tiêu chuẩn đạo đức hay không. Xét thấy rằng các mô hình lớn thường được coi là thiếu tư duy phê phán, kết quả này có thể khiến một số người ngạc nhiên. Khoảng cách giữa kết quả mong đợi và thực tế làm nổi bật sự phức tạp của AI được sử dụng trong nghiên cứu khoa học và xứng đáng được các nhà nghiên cứu nghiên cứu thêm.
Ngoài ra, khi sử dụng các mô hình lớn, các nhà nghiên cứu khoa học cần đặc biệt chú ý đến khả năng các mô hình lớn có thể tạo ra những dữ liệu không tồn tại. Khi Nhà khoa học AI nói trên đang tiến hành nghiên cứu tự động, đã xảy ra một tình huống như thế này: khi mã không đáp ứng được các chỉ số đánh giá dự kiến, nó đã không cố gắng sửa đổi mã ở lần lặp tiếp theo mà hạ thấp các chỉ số đánh giá để tạo mã. nhìn đủ tiêu chuẩn. Thật trùng hợp, theo các báo cáo trước đó, ChatGPT có thể tạo một tập dữ liệu mà không cần hỗ trợ dữ liệu gốc thực sự theo yêu cầu của người dùng. Tập dữ liệu này có thể trái ngược với bằng chứng hiện có hoặc có hướng nghiên cứu khác. Elisabeth Bik, nhà vi trùng học và nhà tư vấn liêm chính trong nghiên cứu độc lập, cho biết: “Điều này sẽ khiến các nhà nghiên cứu dễ dàng thực hiện các phép đo sai lệch trên những bệnh nhân không tồn tại, tạo ra câu trả lời sai cho bảng câu hỏi hoặc tạo ra các tập dữ liệu lớn về thí nghiệm trên động vật.”
Những trường hợp này nhắc nhở mọi người rằng khi giới thiệu các mô hình lớn để hỗ trợ nghiên cứu khoa học, họ cần lưu ý rằng các mô hình lớn sẽ tạo ra dữ liệu. Đặc biệt khi sử dụng các tác nhân điều khiển mô hình lớn để tiến hành nghiên cứu một cách tự động, các nhà nghiên cứu cần phải mở hộp đen thay vì tin tưởng một cách mù quáng. kết quả của mô hình lớn
Một số nghiên cứu nêu trên đã thảo luận về những cơ hội và rủi ro do việc đưa các mô hình lớn vào nghiên cứu khoa học từ các ngành khác nhau mang lại. Xét đến mức độ phức tạp của bản thân các hoạt động nghiên cứu khoa học và tính không đồng nhất của các ngành khác nhau, làm thế nào để sử dụng AI tốt hơn trong quá trình nghiên cứu khoa học cần phải được thảo luận riêng theo từng ngành. Quá trình nghiên cứu khoa học chắc chắn bao gồm nhiều hoạt động lặp đi lặp lại. Việc tự động hóa các bước lặp đi lặp lại này có thể giải phóng thời gian quý báu cho các nhà nghiên cứu khoa học và giúp họ tập trung vào các vấn đề khoa học. Từ khía cạnh này, AI có triển vọng ứng dụng rộng rãi như một công cụ phụ trợ. Tuy nhiên, do khả năng thay đổi của nó, việc sử dụng nó vẫn cần được khám phá và kiểm tra một cách có hệ thống.
Mọi người không cần lo lắng rằng sự ra đời của AI sẽ thay thế các nhà khoa học, nhưng AI chắc chắn đang thay đổi mọi khía cạnh của toàn bộ quá trình nghiên cứu khoa học.
Với sự tiến bộ của trí tuệ nhân tạo (AI), ngày càng có nhiều nhà nghiên cứu cố gắng đưa AI vào từng bước của quá trình nghiên cứu khoa học. Tuy nhiên, đang có một cuộc tranh luận gay gắt trong cộng đồng học thuật về việc liệu AI có thể được sử dụng để thay thế các nhà khoa học hay không.
Gần đây, startup Sakana AI của Nhật Bản đã tạo ra một nhà khoa học trí tuệ nhân tạo thuần túy mà họ đặt tên là THE AI SCIENTIST (sau đây gọi tắt là Nhà khoa học AI), có thể làm việc liên tục 24/7 với chi phí 10 USD cho mỗi bài báo. Các kết quả hiện được công bố trên nền tảng arXiv.
Hình1
Nhà khoa học AI dựa trên mô hình ngôn ngữ lớn (LLM) là một quy trình làm việc hoàn chỉnh từ đầu đến cuối (như trong Hình 1) và hiện chỉ có thể tham gia vào nghiên cứu liên quan đến học máy. Nhà khoa học AI bắt đầu bằng cách tạo ra các chủ đề nghiên cứu mới, tìm kiếm tài liệu liên quan trực tuyến và xếp hạng các ý tưởng nghiên cứu dựa trên tính mới.
Trong giai đoạn thử nghiệm, Nhà khoa học AI có thể tự động viết và thực thi mã dựa trên các ý tưởng nghiên cứu được tạo ra. Bộ phận (tác nhân) chịu trách nhiệm xem xét mã sẽ đảm bảo rằng mã được tạo ra không chứa các ý tưởng nghiên cứu không liên quan nhằm giảm tác động của ảo tưởng về mô hình lớn (ảo tưởng mô hình lớn là nội dung được tạo ra có vẻ logic và mượt mà nhưng không phù hợp với kiến thức hiện có). Sau đó, Nhà khoa học AI sẽ liên tục tối ưu hóa thử nghiệm dựa trên kết quả chạy mã. Nếu thí nghiệm có thể tạo ra biểu đồ mô tả kết quả thí nghiệm, Nhà khoa học AI sẽ viết bản thảo trên giấy.
Nhà khoa học AI đã lấy nghiên cứu mô hình ngôn ngữ do NeurIPS, hội nghị hàng đầu trong lĩnh vực học máy, phát hành làm mẫu, sử dụng các mô hình lớn Claude 3.5, GPT-4 và bộ mã hóa Deepseek mã nguồn mở và Llama-3.1, và mỗi mô hình tạo ra 52 nghiên cứu ý tưởng; sau khi xem xét tính mới trong số đó, một số ít nghiên cứu đã bị loại bỏ vì chúng không có tính đổi mới và một số ý tưởng nghiên cứu không thể được xác minh bằng thực nghiệm (cuối cùng, khả năng lập trình mô hình lớn bị hạn chế) đã hoàn thành việc viết luận văn. Cuối cùng, tác nhân đánh giá được điều khiển bởi mô hình lớn sẽ tự động tạo ra các nhận xét và điểm đánh giá cho bản thảo (mục Điểm trung bình trong Bảng 1). Về mặt chi phí, chi phí sử dụng mô hình DeepSeek Coder để tạo ra mỗi bài báo chỉ là 10 USD.
Trong nghiên cứu này, tác giả đã chứng minh rằng bài đánh giá bài báo của tác nhân đánh giá AI và đánh giá của chuyên gia con người cho ICML 2022 (Hội nghị học máy) là phù hợp và điểm số bài báo của Nhà khoa học AI của đại lý đánh giá AI đã đạt đến mức trước đó. Giá trị trung bình của bài báo được công bố tại hội nghị máy học hàng đầu. Điều này dường như chỉ ra rằng Al Scientist đã thực hiện nghiên cứu cấp hội nghị hàng đầu.
Tất cả các bản thảo giấy, nhận xét đánh giá và mã do AI tạo ra trong nghiên cứu này đã được công khai. Sự cởi mở này cho phép các nhà nghiên cứu khác phân tích kết quả của Nhà khoa học AI. Vì vậy, sau khi nghiên cứu được công bố, một số người phát hiện ra rằng nó có “khuynh hướng phổ biến” và ưa chuộng những bài báo có tỷ lệ trích dẫn cao.
Bảng 1 Kết quả đánh giá quá trình tạo bài viết tự động của nhà khoa học AI trong lĩnh vực mô hình ngôn ngữ
Bình luận về nghiên cứu, Tom Hope, một nhà khoa học máy tính tại Viện AI của Allen, đã chỉ ra rằng "hiện tại nó không thể phát triển các hướng khoa học mới và hữu ích ngoài sự kết hợp hời hợt của các từ thông dụng cơ bản”, đồng thời do hạn chế về năng lực hiện tại của các mô hình lớn, nhiều ý tưởng nghiên cứu không thể tự động hóa cho các thí nghiệm. Tuy nhiên, ngay cả khi AI không thể hoàn thành nhiều nghiên cứu sáng tạo hơn trong thời gian ngắn, nó vẫn có thể tự động hóa các tác vụ lặp đi lặp lại. Ngoài ra, tác giả của AI Scientist chỉ ra rằng do tồn tại ảo ảnh mô hình lớn nên mã và kết quả của các bài viết do AI tạo ra cần phải được xem xét thủ công để tránh mã do AI tạo ra thay đổi các ràng buộc để đạt được mục tiêu hoặc lặp lại. các cuộc gọi khiến chương trình gặp sự cố.
Nghiên cứu này cung cấp bằng chứng sơ bộ cho thấy AI có tiềm năng tạo ra những khám phá khoa học một cách độc lập. Gerbrand Ceder, một nhà khoa học vật liệu tại Phòng thí nghiệm quốc gia Lawrence Berkeley cho biết: “Mặc dù hệ thống này hiện chỉ có thể được sử dụng trong lĩnh vực học máy nhưng một số nhà khoa học cho rằng nó có một tương lai tươi sáng”. Mô hình nghiên cứu khoa học hợp tác đa tác nhân cũng có thể được áp dụng cho các lĩnh vực nghiên cứu khác, đây cũng là hướng nghiên cứu trong tương lai được chỉ ra trong bài báo.
Mặc dù AI tự động hóa toàn bộ quá trình nghiên cứu khoa học nhưng tiến bộ hiện tại vẫn chưa đủ để chứng minh rằng AI có thể thay thế các nhà khoa học tiến hành nghiên cứu độc lập. Trong công việc thực tế, các nhà nghiên cứu khoa học hiện nay sử dụng các mô hình lớn nhiều hơn làm trợ lý nghiên cứu khoa học và sử dụng AI cho một phần nhất định của quá trình nghiên cứu khoa học: một ứng dụng tương đối thành công là trong lĩnh vực hóa học (khám phá thử nghiệm tự động thông qua các cánh tay robot điều khiển mô hình lớn) vật liệu mới), và kết hợp các mô hình lớn với ký hiệu để chứng minh tự động các định lý toán học.
Về cách AI có thể hỗ trợ các nhà nghiên cứu trong các nhiệm vụ nghiên cứu khoa học khác nhau, một nghiên cứu gần đây đã đưa ra một kết luận thận trọng hơn.
Nghiên cứu này sử dụng bốn thí nghiệm tâm lý để kiểm tra bốn khả năng của ChatGPT trong lĩnh vực nghiên cứu khoa học, đó là tổ chức tài liệu nghiên cứu khoa học, tạo ra dữ liệu nghiên cứu khoa học, dự đoán các ý tưởng nghiên cứu khoa học mới và xem xét liệu quy trình nghiên cứu khoa học có tuân thủ các chuẩn mực đạo đức hay không. Nghiên cứu cho thấy do sự tồn tại của ảo ảnh mô hình lớn, GPT-3.5 và GPT-4 đã tạo ra các tham chiếu hư cấu lần lượt là 36,0% và 5,4% (mặc dù GPT-4 thừa nhận rằng nó đã tạo ra các tham chiếu hư cấu ), chỉ ra rằng hai tham chiếu lớn này mô hình không phù hợp cho công việc sắp xếp tài liệu. GPT-3.5 và GPT-4 có thể sao chép các mô hình sai lệch văn hóa đã được phát hiện trước đó trong tập hợp lớn, do đó ChatGPT có thể mô phỏng việc tạo dữ liệu phù hợp với các kết quả đã biết.
Tuy nhiên, cả hai mô hình lớn đều không thành công với nội dung mới không có trong dữ liệu huấn luyện và cũng không sử dụng đáng kể thông tin mới để dự đoán những kết quả mới lạ hơn và ít mới lạ hơn, cho thấy rằng các mô hình lớn không giỏi tạo ra dữ liệu nghiên cứu mới – Hạn chế khả năng suy luận những điều ngoài dữ liệu đào tạo. Tuy nhiên, GPT-4 đã được chứng minh là có thể phát hiện các hành vi sai trái trong học thuật như thao túng dữ liệu (p-hacking) hoặc vi phạm các giao thức mở, cho thấy AI có tiềm năng trở thành nhà đánh giá đạo đức nghiên cứu khoa học đủ tiêu chuẩn.
Sự khai sáng mà nghiên cứu này mang lại cho các học giả là khả năng của các mô hình lớn trong việc hỗ trợ nghiên cứu khoa học có thể không nhất thiết phải đáp ứng các mục tiêu đặt ra. Ví dụ, mọi người sẽ nghĩ rằng các mô hình lớn xử lý văn bản tốt có thể tổ chức các tài liệu. Tuy nhiên, do sự tồn tại của ảo tưởng nên thực tế không phải vậy và việc tổ chức tài liệu không chỉ là liệt kê các nghiên cứu có liên quan mà còn là xây dựng một khuôn khổ nhận thức với logic rõ ràng. Các mô hình lớn hoạt động tốt hơn trong việc xem xét liệu nghiên cứu có tuân thủ các tiêu chuẩn đạo đức hay không. Xét thấy rằng các mô hình lớn thường được coi là thiếu tư duy phê phán, kết quả này có thể khiến một số người ngạc nhiên. Khoảng cách giữa kết quả mong đợi và thực tế làm nổi bật sự phức tạp của AI được sử dụng trong nghiên cứu khoa học và xứng đáng được các nhà nghiên cứu nghiên cứu thêm.
Ngoài ra, khi sử dụng các mô hình lớn, các nhà nghiên cứu khoa học cần đặc biệt chú ý đến khả năng các mô hình lớn có thể tạo ra những dữ liệu không tồn tại. Khi Nhà khoa học AI nói trên đang tiến hành nghiên cứu tự động, đã xảy ra một tình huống như thế này: khi mã không đáp ứng được các chỉ số đánh giá dự kiến, nó đã không cố gắng sửa đổi mã ở lần lặp tiếp theo mà hạ thấp các chỉ số đánh giá để tạo mã. nhìn đủ tiêu chuẩn. Thật trùng hợp, theo các báo cáo trước đó, ChatGPT có thể tạo một tập dữ liệu mà không cần hỗ trợ dữ liệu gốc thực sự theo yêu cầu của người dùng. Tập dữ liệu này có thể trái ngược với bằng chứng hiện có hoặc có hướng nghiên cứu khác. Elisabeth Bik, nhà vi trùng học và nhà tư vấn liêm chính trong nghiên cứu độc lập, cho biết: “Điều này sẽ khiến các nhà nghiên cứu dễ dàng thực hiện các phép đo sai lệch trên những bệnh nhân không tồn tại, tạo ra câu trả lời sai cho bảng câu hỏi hoặc tạo ra các tập dữ liệu lớn về thí nghiệm trên động vật.”
Những trường hợp này nhắc nhở mọi người rằng khi giới thiệu các mô hình lớn để hỗ trợ nghiên cứu khoa học, họ cần lưu ý rằng các mô hình lớn sẽ tạo ra dữ liệu. Đặc biệt khi sử dụng các tác nhân điều khiển mô hình lớn để tiến hành nghiên cứu một cách tự động, các nhà nghiên cứu cần phải mở hộp đen thay vì tin tưởng một cách mù quáng. kết quả của mô hình lớn
Một số nghiên cứu nêu trên đã thảo luận về những cơ hội và rủi ro do việc đưa các mô hình lớn vào nghiên cứu khoa học từ các ngành khác nhau mang lại. Xét đến mức độ phức tạp của bản thân các hoạt động nghiên cứu khoa học và tính không đồng nhất của các ngành khác nhau, làm thế nào để sử dụng AI tốt hơn trong quá trình nghiên cứu khoa học cần phải được thảo luận riêng theo từng ngành. Quá trình nghiên cứu khoa học chắc chắn bao gồm nhiều hoạt động lặp đi lặp lại. Việc tự động hóa các bước lặp đi lặp lại này có thể giải phóng thời gian quý báu cho các nhà nghiên cứu khoa học và giúp họ tập trung vào các vấn đề khoa học. Từ khía cạnh này, AI có triển vọng ứng dụng rộng rãi như một công cụ phụ trợ. Tuy nhiên, do khả năng thay đổi của nó, việc sử dụng nó vẫn cần được khám phá và kiểm tra một cách có hệ thống.
Mọi người không cần lo lắng rằng sự ra đời của AI sẽ thay thế các nhà khoa học, nhưng AI chắc chắn đang thay đổi mọi khía cạnh của toàn bộ quá trình nghiên cứu khoa học.