摘要:人工智能 (AI) 正被应用于各个领域,而对生成式人工智能的研究,尤其是在自然语言处理 (NLP) 技术方面的研究正在积极开展。目前,教育领域与生成式人工智能相关的研究使用的是 GPT 之类的封闭式大型语言模型 (LLM)。然而,这些模型有局限性,因为它们难以微调并且成本高昂。本研究旨在通过微调和比较基于韩语模型构建的 Llama2 和 Polyglot 与非基于韩语模型的 Llama3 的性能来探索开放式 LLM 的潜在教育应用。实验使用来自小学社会研究和科学学科的问答数据集,结果表明 Llama2 13B 模型表现出最高的性能,其次是 Polyglot 12.8B 模型。 Llama3 8B 模型实现了 Llama2 13B 模型约 93.08% 的性能,以及 Polyglot 12.8B 模型约 98.63% 的性能。这表明,即使是相对较小的非韩语模型也能表现出高性能。
摘要 - 由IETF标准化的NetConf协议是一种用于配置网络实体的尖端解决方案,并在现代网络设备中提供了SNMP的替代方案。由于配置协议的复杂性以及创建有效配置的挑战,生成的AI解决方案有望将文本提示转换为配置构造的人。但是,LLM在文献中尚未探讨LLM产生NetConf配置的潜力。本文通过评估五个不同的LLM的性能(包括Llama3,开源,本地模型)来解决这一差距,以使用广泛的Yang数据模型来创建NetConf配置。为了使用生成AI创建有效的网络配置,本文提出了将域知识集成到LLM的管道,而无需其他培训,并突出了常见的缺点和错误,以防止生成有效的配置。发现表明LLM的使用有望实现此任务,但是当前的最新技术还不够成熟,可以在复杂情况下立即进行工业应用。索引条款 - 网络管理,服务管理,NetConf,Yang,SNMP,Generative AI,LLM,RAG,XML,XML,MIB,GPT,GPT,LLAMA3
演讲者将首先对四种主要的大语言模型进行比较分析:GPT-4O,Claude 3.5十四行诗,Gemini 1.5 Pro和Llama3。此外,扬声器还将引入几个广泛使用的AI用户界面,即Poe.com,副副词,笔记本电脑LM和困惑。本部分还将涵盖反向及时的工程,知识库,长篇文章写作和AI辅助监管研究。
自回旋模型(武器)被广泛地成为大型语言模型(LLMS)的基石。我们通过介绍LLADA挑战了这一概念,这是一种扩散模型,该模型在训练和监督的细调(SFT)范式下从头开始训练。llada通过向前数据掩盖过程和反向过程进行分散模型,该过程由香草变压器参数列出以预测掩盖的令牌。通过操作可能性结合的可能性,它为概率引发提供了一种限制的生成方法。在广泛的基准测试中,Llada表现出强大的可伸缩性,表现优于我们的自我建造的手臂基线。明显地,LLADA 8B具有强大的LLM,例如LLAMA3 8B在秘密学习中,并且在SFT之后,在诸如多转变型号之类的案例研究中表现出令人印象深刻的跟随能力。此外,Llada解决了诅咒,在逆转诗的完成任务中超过了GPT-4O。我们的发现将扩散模型建立为武器的可行且有前途的替代方案,挑战了上面讨论的关键LLM功能固有地与武器相关的假设。项目页面和代码:https://ml-gsai.github.io/llada-demo/。
检索型发电(RAG)已从学术研究人员和行业中获得了重要的关注,作为解决大型语言模型(LLMS)知识限制的有前途解决方案。但是,LLM在使用抹布时经常表现出幻觉现象。为了有效地解决各种问题类型的幻觉现象,我们采用了各种选择和策略。具体来说,我们利用Llama3的详细自我验证能力来确定给定的参考是否可以充分回答一个特定的问题,从而避免幻觉现象。随后,通过利用知识图来增强我们的知识基础,我们可以增强上下文理解并减少抹布的幻觉。llm的高级能力进一步使我们能够有效整合和解释知识图的内容,从而确保更加连贯和准确的响应。最后,对这些不同问题类型的有效处理使我们能够根据每个查询的特定要求提供精确且有用的答案。通常,我们的工作全面利用LLM的高级功能来增强我们信息检索系统的鲁棒性和信誉。这种多方面的方法,再加上对参考文献的细致评估,可确保提供高质量的重音,而与问题的复杂性无关。
生成模型已经证明了跨编程,自然科学和一般知识等领域的各种基准标记的人类水平熟练程度。尽管在竞争性基准上有这些有希望的结果,但他们仍然在基本级学生通常执行的看似简单的解决问题的任务方面挣扎。最新模型如何在旨在评估学校计算思维和解决问题技能的标准化测试上执行?在本文中,我们策划了一个新颖的基准测试,该基准涉及基础视觉编程领域中的计算思维测试。我们的最初结果表明,诸如GPT-4O和Llama3之类的最先进模型几乎不符合普通学校学生的表现。为了进一步提高这些模型的性能,我们使用新型的合成数据生成方法对其进行了微调。关键想法是使用符号方法来开发一个综合数据集,该方法捕获不同的技能水平,从识别视觉元素到多选择测验到综合式任务。我们展示了合成数据中符号信息的各个方面如何有助于改善微调模型的性能。我们将发布完整的实施和数据集,以促进有关增强生成模型中计算思维的进一步研究。
大型语言模型(LLMS)已彻底改变了语言处理任务,尤其是作为聊天代理。但是,他们对威胁检测问题的适用性不清楚。本文研究了将LLMS作为网络入侵检测系统(NIDS)的可行性,尽管它们的计算要求很高,但出于解释性的目的而迅速占有一致。此外,已经投资了开发LLM的资源,它们可能会为NID提供效用。当前最新的NID依赖于人工基准测量数据集,当应用于现实世界的网络工作环境时,导致偏斜的性能。因此,我们将GPT-4和LLAMA3模型与传统体系结构和基于变压器的模型进行了比较,以评估它们在不依赖人工偏斜的数据集而不依赖于其广泛的预培养的AC受过的知识的情况下,不依赖于人工偏斜的数据集。我们的结果表明,尽管LLM在精确的攻击检测中挣扎,但它们具有通往可解释的NID的途径的重要潜力。我们的前探索表明,LLM不适合检测恶意Netfrows。最有希望的是,这些具有NID中互补药物的重要潜力,尤其是在与检索增强的Generation(RAG)集成时提供解释并有助于威胁响应,并呼叫功能。
