摘要:人工智能 (AI) 正被应用于各个领域,而对生成式人工智能的研究,尤其是在自然语言处理 (NLP) 技术方面的研究正在积极开展。目前,教育领域与生成式人工智能相关的研究使用的是 GPT 之类的封闭式大型语言模型 (LLM)。然而,这些模型有局限性,因为它们难以微调并且成本高昂。本研究旨在通过微调和比较基于韩语模型构建的 Llama2 和 Polyglot 与非基于韩语模型的 Llama3 的性能来探索开放式 LLM 的潜在教育应用。实验使用来自小学社会研究和科学学科的问答数据集,结果表明 Llama2 13B 模型表现出最高的性能,其次是 Polyglot 12.8B 模型。 Llama3 8B 模型实现了 Llama2 13B 模型约 93.08% 的性能,以及 Polyglot 12.8B 模型约 98.63% 的性能。这表明,即使是相对较小的非韩语模型也能表现出高性能。
背景:量子计算是一种快速发展的新编程范式,它为算法的设计和实现带来了重大变化。理解量子算法需要物理和数学知识,这对软件开发人员来说可能具有挑战性。目的:在这项工作中,我们首次分析了 LLM 如何支持开发人员理解量子代码。方法:我们使用两种不同的人工编写提示风格,对七种最先进的量子算法,通过实证分析和比较三种广泛采用的 LLM(Gpt3.5、Llama2 和 Tinyllama)提供的解释质量。我们还分析了 LLM 解释在多轮中的一致性以及 LLM 如何改进现有的量子算法描述。结果:Llama2 从头开始提供最高质量的解释,而 Gpt3.5 成为最适合改进现有解释的 LLM。此外,我们表明,在提示中添加少量上下文可以显着提高解释的质量。最后,我们观察了解释在多轮中在质量和句法上如何保持一致。结论:这项工作突出了有希望的结果,并为未来在量子代码解释的 LLM 领域的研究提出了挑战。未来的工作包括通过快速优化和解析量子代码解释来改进方法,以及对解释的质量进行系统评估。
语言和视觉模型(LLMS/VLMS)通过产生类似人类的文本和理解图像的能力彻底改变了AI领域,但是确保其可靠性至关重要。本文旨在评估LLM(GPT4,GPT-3.5,Llama2和Palm 2)和VLMS(GPT4V和Gemini Pro Vision)通过提示估算其口头上的不确定性的能力。我们提出了新的日本不确定场景(JUS)数据集,旨在通过困难的查询和对象计数测试VLM功能,以及净校准误差(NCE)来测量错误校准的方向。结果表明,LLMS和VLM都有很高的校准误差,并且大多数时候都过高地表明不确定性估计的能力较差。此外,我们为回归任务开发了提示,并且我们表明,在产生平均/标准偏差和95%置信区间时,VLM的校准较差。
摘要。鉴于我们社会中老年人的比例不断增长,对阿尔茨海默氏病的及时诊断已成为医疗保健的一个临时方面。 在本文中,我们提出了一种基于语音技术的非侵入性和成本效益的检测方法。 该方法与诸如及时的微调和有条件学习之类的技术结合使用了预训练的语言模型,从而提高了检测过程的准确性和效率。 为了解决有限的计算资源的ISE,本研究采用了有效的Lora微调方法来构建分类模型。 跟随多轮训练和严格的10倍交叉验证,基于Llama2模型的及时微调策略的准确性为81.31%,比采用BERT模型的控制组提高了4.46%。 这项研究为早期诊断阿尔茨海默氏病提供了一种新型的技术方法,并为在类似条件下的模型优化和资源利用提供了宝贵的见解。 可以预料,这种方法将在临床实践和应用研究中得到有益,从而促进对阿尔茨海默氏病的更准确有效的筛查和诊断。鉴于我们社会中老年人的比例不断增长,对阿尔茨海默氏病的及时诊断已成为医疗保健的一个临时方面。在本文中,我们提出了一种基于语音技术的非侵入性和成本效益的检测方法。该方法与诸如及时的微调和有条件学习之类的技术结合使用了预训练的语言模型,从而提高了检测过程的准确性和效率。为了解决有限的计算资源的ISE,本研究采用了有效的Lora微调方法来构建分类模型。跟随多轮训练和严格的10倍交叉验证,基于Llama2模型的及时微调策略的准确性为81.31%,比采用BERT模型的控制组提高了4.46%。这项研究为早期诊断阿尔茨海默氏病提供了一种新型的技术方法,并为在类似条件下的模型优化和资源利用提供了宝贵的见解。可以预料,这种方法将在临床实践和应用研究中得到有益,从而促进对阿尔茨海默氏病的更准确有效的筛查和诊断。
摘要本研究探讨了知识编辑技术增强对会话推荐系统(CRS)的大型语言模型(LLM)的潜力。尽管GPT,Llama和Gemini之类的LLM具有高级的对话能力,但它们在代表动态的,现实的项目目录方面面临挑战,通常会导致建议中的不准确和幻觉。这项研究初步研究知识编辑是否可以通过更新LLM的内部知识来解决这些局限性,从而在没有完整模型重新培训的情况下提高了产品信息的准确性。使用开源Llama2模型,我们在笔记本列表的数据集上应用两种知识编辑方法(宽限期和R-Rome)。我们的发现证明了该模型准确表示产品特征的能力,而R-Rome则获得了最高增益,同时又不降低模型效率。该研究强调了利用知识编辑来增强CRS的观点,并建议未来的工作来探索更广泛的应用程序和对建议系统性能的影响。
摘要 - 各个部门的生成人工智能(Genai)的快速发展引起了重大的环境问题,尤其是其云和高性能计算(HPC)基础架构的碳排放。本文介绍了S Prout,这是一个创新的框架,旨在通过减少生成大语言模型(LLM)推理服务的碳足迹来解决这些问题。prout利用“发电指导”的创新概念来指导自回归的生成过程,从而提高碳效率。我们提出的方法可以很好地平衡对生态可持续性的需求与对高质量产生结果的需求。采用指令优化器将生成指令的战略分配给用户提示和原始离线质量评估器,在使用Llama2 LLM和全球电网数据中,在现实世界评估中,碳排放量显着降低了40%以上。这项研究标志着将AI技术与可持续实践保持一致的关键一步,强调了减轻生成人工智能迅速扩展领域的环境影响的潜力。
这项研究调查了大型语言模型用于测试案例生成的利用。该研究使用Llama提供的大型语言模型和嵌入模型,特别是7B尺寸的Llama2,以生成定义输入的测试用例。这项研究涉及一种使用称为检索产生(RAG)和及时工程的自定义技术的信息。rag是本研究中在本地存储组织信息的一种方法,该信息用于创建测试用例。除了大型语言模型已准备好培训的预训练数据外,该存储的数据被用作互补数据。通过使用此方法,实现可以收集特定的组织数据,因此对所需域有更深入的了解。该研究的目的是研究AI驱动的测试案例生成如何影响整体软件质量和开发效率。这是通过比较基于AI的系统的输出与手动创建测试用例来评估的,因为这是研究时的公司标准。AI驱动的测试用例主要以覆盖范围和时间的形式进行分析,这意味着我们比较了AI系统可以生成测试用例与手动创建的测试案例相比。同样,考虑时间来了解如何影响发展效率。
摘要 - 人工智能和典型的大语言模型(LLMS)的发展,为帮助系统管理员管理现代网络的复杂性提供了有希望的前景。,尽管存在这种潜力,但文献中仍然存在有关LLM可以理解计算机网络的程度的显着差距。没有经验证据,系统管理员可能会依靠这些模型,而不会确保其在准确执行与网络相关的任务方面的功效。在本文中,我们是第一个对LLMS对计算机网络理解的详尽研究。我们提出了几个研究问题,以确定LLM在提供网络拓扑及其问题时是否可以提供正确的答案。为了评估它们,我们开发了一个详尽的框架来评估LLMS在各种网络相关任务中的功能。我们在多个计算机网络上评估了我们的框架(例如,GPT4)和开放源代码(例如Llama2)模型。使用零拍的场景中,我们在通用LLM中的发现表明了令人鼓舞的结果,最佳模型的平均准确度为79.3%。专有的LLM在中小型网络中取得了值得注意的结果,而挑战则持续理解复杂的网络拓扑,尤其是对于开源模型。此外,我们提供了有关及时工程如何提高某些任务准确性的洞察力。索引术语 - LARGE语言模型,计算机网络,系统管理员。
(2024年7月)联系信息邮政学院伦敦大学学院实验心理学26 Bedford Way,314伦敦,英国WC1H 0AP电子邮件b.love@ucl.ac.uk网站http://bradllove.org.org.org.org.org Citizenship US和UK Education Ph.D.伊利诺伊州埃文斯顿的认知心理学西北大学Cognitive and Linguistic Sciences Brown University, Providence, RI POSITIONS 2020-2021 Programme Leader in Human-Machine Teams at the Alan Turing Institute 2016 - Inaugural Turing Fellow at the Alan Turing Institute 2011 - Professor of Cognitive and Decision Sciences at University College London (UCL) 2010 - 2011 Full Professor in Psychology The University of Texas at Austin 2005 – 2010 Associate Professor in Psychology The University of Texas在1999年至2005年的奥斯汀心理学助理教授,德克萨斯大学奥斯汀分校的赠款,奖学金和荣誉奖学金2/2024向Tech Leader(希望保持匿名)向UCL捐款2/2024,以资助Braingpt项目。9/2023 Microsoft的加速基础模型研究计划,“ Braingpt:使用Llama2和Lora加速神经科学研究的开源工具”。8/2022 ESRC Grant,“下一代心理嵌入”。8/2020最佳纸张奖,Hornsby等人的计算大脑和行为。(2020)。9/2019 Ellis.eu自然情报计划中的研究员
