推荐系统被广泛用于吸引参与内容,大型语言模型(LLMS)引起了生成推荐人。这样的系统可以直接构成项目,包括用于诸如问题建议之类的开放设定任务。虽然LLMS的世界知识启动了好的建议,但是通过用户反馈改善生成的内容却是一项挑战,因为持续细微的LLM持续昂贵。我们提出了一种无培训方法,可以通过将用户反馈循环与基于LLM的优化器连接起来来优化生成推荐人。我们提出了一种生成探索探索方法,该方法不仅可以利用具有已知高参与度的生成的项目,而且可以积极地探索并发现隐藏的人群偏爱以提高建议质量。我们在两个域(电子商务和一般知识)中评估了问题生成的方法,并使用单击“速率”(CTR)对用户反馈进行了模型。实验表明,我们基于LLM的探索探索方法可以依靠地提高建议,并同意增加CTR。消融分析表明,生成探索是学习用户偏好的关键,避免了贪婪的仅剥削方法的陷阱。人类评估强烈支持我们的定量发现。
摘要 - 大型语言模型(LLM)的出现通过提供先进的自然语言处理能力彻底改变了各种应用。但是,这项创新引入了新的网络安全挑战。本文探讨了专门针对LLM驱动应用程序量身定制的威胁建模和风险分析。专注于数据中毒,及时注射,SQL注入,越狱和构图注入等潜在攻击,我们评估了它们对安全性的影响并提出缓解策略。我们引入了一个框架,结合了大步和恐惧方法,以进行主动威胁识别和风险评估。此外,我们通过定制的LLM驱动应用程序的案例研究来说明端到端威胁模型的可行性。该模型遵循Shostack的四个问题框架,并针对存在的独特威胁LLMS调整了。我们的目标是提出措施,以增强这些强大的AI工具的安全性,挫败攻击,并确保LLM集成系统的可靠性和完整性。
机器学习算法在依靠时间序列数据(例如能量预测,环境监控和电信等时间序列数据)方面表现出显着的成功。随着时间序列数据的越来越多的流行率,有一个越来越多的授权可以用于预测任务的准确和广义模型。培训这种模型是一个高度迭代的过程,需要对时间序列数据和机器学习算法有深刻的了解。我们演示了Gizaml,这是一种基于元学习的框架,专门针对自动化算法选择和用于预测时间序列的超参数调整。gizaml主要包括两个关键阶段:数据和特征工程阶段,以及建议和优化阶段。在数据和功能工程阶段中,GizAML对数据集进行重新启动,以获取均匀的时间间隔,处理离群值并自动提取各种与时间序列相关的功能。在推荐和优化阶段,Gizaml采用了一种元模型,该元模型提出了机器学习管道配置的实例化,这些配置预计将在新型数据集中表现出很强的表现。这些配置温暖启动了采用有效的贝叶斯选择方法的优化阶段。元模型采用大型语言模型(LLM),用于生成数据集表示的嵌入代表向量。Gizaml使用9种不同的回归机学习算法和每种不同的超参数配置。此外,Gizaml利用新的运行来不断提高对未来时间序列预测任务的元模型建议的性能和鲁棒性。我们的演示方案表明,Gizaml的表现优于当前最新的开源自动化机器学习框架。
在教育领域,学生评估与传授知识具有同等的意义。要进行评估,学生通常需要仔细研究基于文本的学术评估方法。教师需要提出各种各样的问题,这些问题需要公平,让所有学生证明他们对特定主题的适当性。这可能会非常具有挑战性,因为它们可能需要手动浏览几种不同的演讲材料。我们的目标是通过使用微调生成的LLM实现自动质疑答案(AQAG)来使整个过程变得更加容易。用于量身定制讲师的首选问题样式(MCQ,conteptual或事实问题),正在使用及时工程(PE)。在这项研究中,我们建议在NLP中利用无监督的学习方法,主要关注英语。这种方法赋予基本元路2-7B模型,将种族数据集集成为微调过程的培训数据。创建一个定制模型,该模型将为从事基于文本评估的教育者,指导者和个人提供有效的解决方案。可靠,有效的工具来产生问答,可以释放宝贵的时间和资源,从而简化其评估过程。
广泛采用大型语言模型(LLM)需要快速扩展云LLM推理群集,从而导致体现碳的积累 - 制造和提供IT资产的排放 - 主要集中在推理服务器CPU上。本文深入研究了Cloud LLM推论的可持续增长的挑战,强调了在寿命增加的情况下体现的CPU的扩展摊销。鉴于硅老化的可靠性风险,我们提出了一种衰老的CPU核心管理技术来延迟CPU衰老效应,从而使群集操作员可以安全地提高CPU寿命。我们的技术利用了我们在云LLM推理中发现的CPU不足的模式,通过在未使用的核心中停止衰老,并通过选择性深层闲置和衰老的推理任务分配来停止衰老,并在活跃内核中均匀衰老。通过使用现实世界的Azure推理轨迹和来自微软的扩展LLM群集模拟器的大量模拟,我们显示出与现有技术相比,估计通过管理CPU AGING AGING AGIND效果的P99效果,估计较小的cpu inderiation cppy in verne cppy cpputization cppy and cpputiation and cputiation and cputiation and and cpus质量较小,估计降低了年度体现的碳排放量的37.67%。
文本到图像模型近年来已显示出进展。随着这一进展,从文本中生成向量图也已提出。svg是向量图形的流行效果,SVG代表带有XML文本的场景。因此,大型语言模型可以直接处理SVG代码。考虑到这一点,我们专注于使用LLMS编辑SVG。用于定量评估LLMS编辑SVG的能力,我们提出了SVGeditBench。svgeditBench是评估LLMS编辑SVG代码能力的基准。在提议的基准下进行评估时,我们还显示了GPT-4和GPT-3.5结果。在实验中,GPT-4在定量和质量上都显示出与GPT-3.5的优势。该数据集可在https://github.com/mti-lab/svgeditBench上找到。
混合现实越来越多地用于封闭房屋和办公空间以外的移动设置。此移动性引入了适应不同上下文的用户界面布局的需求。但是,现有的自适应系统仅针对静态环境而设计。在本文中,我们介绍了centerAdapt,该系统通过在共享环境中考虑环境和社交线索来将混合现实UI的混合现实UIS调整到现实世界中。我们的系统包括对UI适应的感知,推理和优化模块。我们的感知模块标识用户周围的对象和个人,而我们的推理模块则利用视觉和语言模型来评估交互式UI元素的位置。这种调整的布局不会阻碍相关的环境线索或干扰社会规范。我们的优化模块会生成混合的现实接口,以解释这些考虑以及时间约束。进行评估,我们首先验证了与人类专家用户相比,我们的推理模块评估UI上下文的能力。在一项在线用户研究中,我们建立了centerachAdapt为混合现实生成上下文意识的布局的能力,在此效果优于以前的自适应布局方法。我们以一系列应用程序和场景结束,以证明centerachAdapt的多功能性。
本研究提出了一种利用大型语言模型 (LLM) 应用程序架构实现生成式 AI 服务的方法。随着生成式 AI 技术的最新进展,LLM 在各个领域都获得了突出地位。在此背景下,本研究解决了信息稀缺的挑战,并提出了利用 LLM 功能的具体补救措施。该调查深入研究了缓解数据不足问题的策略,并提供了量身定制的解决方案。该研究深入研究了采用微调技术和直接文档集成来缓解数据不足的有效性。这项工作的一项重大贡献是开发了检索增强生成 (RAG) 模型,该模型解决了上述挑战。RAG 模型经过精心设计,可增强信息存储和检索过程,确保改进内容生成。
大型语言模型(LLMS)通过利用其语言理解和文本生成功能来显示机器人应用,尤其是任务计划的重要潜力。然而,在诸如家用机器人技术之类的应用中,这些模型的个性化仍然存在着重要的差距。例如,LLM计划可能会发现执行需要个性化的任务,例如决定基于特定的家庭喜好将杯子放在厨房中的位置。我们介绍了LLM-Persyalize,这是一个新颖的框架,旨在个性化家庭机器人的LLM计划。llm-persyalize使用llm计划在多房间,部分观察的家庭环境中执行迭代计划,并利用从本地观察结果动态构建的场景图。要将LLM计划者个性化对用户偏好,我们的优化管道整合了模仿学习和加强自我训练。我们评估了LLM-个性化家政人员,这是一个具有挑战性的现实世界3D基准,用于家庭重排,表明,成功率比现有的LLM计划者增长了30%以上,这表明与人类偏好相符。