Loading...
机构名称:
¥ 1.0

摘要:人工智能 (AI) 正被应用于各个领域,而对生成式人工智能的研究,尤其是在自然语言处理 (NLP) 技术方面的研究正在积极开展。目前,教育领域与生成式人工智能相关的研究使用的是 GPT 之类的封闭式大型语言模型 (LLM)。然而,这些模型有局限性,因为它们难以微调并且成本高昂。本研究旨在通过微调和比较基于韩语模型构建的 Llama2 和 Polyglot 与非基于韩语模型的 Llama3 的性能来探索开放式 LLM 的潜在教育应用。实验使用来自小学社会研究和科学学科的问答数据集,结果表明 Llama2 13B 模型表现出最高的性能,其次是 Polyglot 12.8B 模型。 Llama3 8B 模型实现了 Llama2 13B 模型约 93.08% 的性能,以及 Polyglot 12.8B 模型约 98.63% 的性能。这表明,即使是相对较小的非韩语模型也能表现出高性能。

人工智能数字教材开放大型语言模型的开发

人工智能数字教材开放大型语言模型的开发PDF文件第1页

人工智能数字教材开放大型语言模型的开发PDF文件第2页

人工智能数字教材开放大型语言模型的开发PDF文件第3页

人工智能数字教材开放大型语言模型的开发PDF文件第4页

人工智能数字教材开放大型语言模型的开发PDF文件第5页

相关文件推荐

2024 年
¥1.0
2020 年
¥14.0