摘要:人工智能 (AI) 正被应用于各个领域,而对生成式人工智能的研究,尤其是在自然语言处理 (NLP) 技术方面的研究正在积极开展。目前,教育领域与生成式人工智能相关的研究使用的是 GPT 之类的封闭式大型语言模型 (LLM)。然而,这些模型有局限性,因为它们难以微调并且成本高昂。本研究旨在通过微调和比较基于韩语模型构建的 Llama2 和 Polyglot 与非基于韩语模型的 Llama3 的性能来探索开放式 LLM 的潜在教育应用。实验使用来自小学社会研究和科学学科的问答数据集,结果表明 Llama2 13B 模型表现出最高的性能,其次是 Polyglot 12.8B 模型。 Llama3 8B 模型实现了 Llama2 13B 模型约 93.08% 的性能,以及 Polyglot 12.8B 模型约 98.63% 的性能。这表明,即使是相对较小的非韩语模型也能表现出高性能。
主要关键词