摘要:体现的AI正在逐步探索大型语言模型(LLMS),以进行机器人技术的有效计划。体现AI的最新进展使LLMS能够将视觉观察和高级目标提示解析为可执行子任务。但是,这些现有方法通常完全基于环境的初始状态执行计划,从而导致生成更长的计划时的基础弱化。通过以语言的形式纳入环境反馈来结合循环的一些最新指示。与这些方法不同,我们介绍了计划扩散器,这是一种新颖的“闭环”方法,用于逐步计划,并在循环的每个步骤中进行视觉反馈伴奏。具体来说,我们的方法自动加入采用LLM来生成单步文本子目标和扩散模型,以将其转化为可视觉子目标,用于后续计划。最后,一个能够实现这些亚目标图像的目标政策将其执行。对Ravens基准套件的全面评估表明,计划扩散器超过了最先进的方法,尤其是在长期任务中。此外,我们的方法在分发场景中证明了强大的概括性 - 可轻松处理看不见的颜色,对象和增加任务复杂性。
摘要 - 这项研究着重于大型语言模型(LLMS)如何以人为融合和互动方式为移动体现的代理(例如机器人)提供(路径)计划。一个名为llm a*的新型框架旨在利用LLMS的常识,并提出了公用事业 - 最佳的A*,以促进几乎没有最佳的路径计划。提示用于两个主要目的:1)向LLM提供环境,成本,启发式等基本信息。; 2)向LLMS传达有关中间计划结果的人类反馈。这种方法将人类反馈在船上,并将整个计划过程透明(类似于“白盒”)给人类。此外,它有助于无代码路径计划,从而促进了人工智能技术向社区的可访问性和包容性,较少精通编码。对A*和RL的比较分析表明,LLM A*在搜索空间方面表现出更高的效率,并且在表现优于RL的同时获得了与A*相当的路径。llm a*的互动性也使其成为协作人类机器人任务中部署的有前途的工具。可以在GitHub上找到代码和补充材料:https://github.com/speedhawk/llm-a--。
在接下来的几年中,软件开发将会改变。gen-generative ai(人工智能),主要是通过机器学习LLM(大型语言模型)用于协助计划任务。从与生成AI代理的配对编程到自动生成代码,对其进行解释或生成测试套件,全球正在探索新的编码方式。如果这项新技术的承诺提供了,我们可以期望软件的开发和维护方式发生了根本性的变化,并且生成AI的参与更加激烈。同样在几年内,与计算机交互的主要接口可能会发生变化。更轻巧,更强大,更强大但更少的能源消耗的虚拟和增强现实设备有望开发,从而导致具有常规眼镜的外形,台式机的计算能力以及手机的连接性的设备。如果这种趋势实现,与计算机交互的首选平均值可能为XR(扩展现实)。
程序化内容生成 (PCG) 被定义为使用算法自动创建游戏内容。PCG 在游戏行业和学术界都有着悠久的历史。它可以增加玩家参与度并减轻游戏设计师的工作。虽然 PCG 中深度学习方法的最新进展使研究人员和从业者能够创建更复杂的内容,但大型语言模型 (LLM) 的出现才真正打乱了 PCG 发展的轨迹。本调查探讨了用于 PCG 的各种算法之间的差异,包括基于搜索的方法、基于机器学习的方法、其他常用方法(例如噪声函数)以及新兴的 LLM。我们还对组合方法进行了详细讨论。此外,我们根据它们生成的内容类型和各自论文的发表日期对这些方法进行了比较。最后,我们找出了现有学术工作的差距并提出了未来研究的可能方向。
本文探讨了使用大型语言模型 (LLM) 加速人机交互的问题。它通过考虑 LLM 的难以形式化的认知语义解释,超越了可解释人工智能 (XAI) 的传统逻辑范式。XAI 沉浸在一个混合空间中,在交互过程的数字化过程中,人类和机器具有关键的区别。作者的收敛方法确保了使 XAI 有目的性和可持续性的条件。该方法基于逆问题解决方法、认知建模、遗传算法、神经网络、因果循环动力学和特征形式实现。事实证明,决策者需要为信息处理创建独特的结构条件,使用 LLM 来加速集体问题解决的收敛。这些实施已在情境中心的集体战略规划期间进行。这项研究有助于在经济、科学和技术领域的许多分支中推进可解释的 LLM。
摘要本文介绍了链接,这是一种基于LLM的框架 - 用于构建和服务上下文感知的AI代理的框架。在目标的驱动下,我们可以对LLM代理的上下文认识和之间的灵活信息共享,我们采用了基于流的设计,其中代理负责生产和转换不同类型的流,包括低级感应信号和高级语义事件。这些流可以在系统级别的不同代理之间共享,以便开发人员可以在现有流上构建新功能。可以通过集体转换流的代理来获得更丰富的特征和更高水平的智能。链式流提供了易于使用的程序接口,以促进代理开发和支持高性能可扩展代理服务的运行时系统。系统设计的灵感来自微孔和数据流计算。我们证明了链式流的可行性和有用性,并在个人资产,智能家庭和商业智能中使用了几种用例。该代码在https://github.com/mobilellm/chainstream上开放。
摘要 - LARGE语言模型(LLMS)具有显着促进人类的生活,并且迅速的工程提高了这些模型的效率。然而,近年来,迅速授权的攻击迅速增加,导致隐私泄漏,延迟增加和系统资源浪费等问题。提出了通过从人类反馈(RLHF)进行加强学习的基于安全性调整的方法以使LLM对齐,但现有的安全机制无法应对官方提示攻击,强调了在提示上执行安全检测的必要性。在本文中,我们在各种及时攻击下共同考虑Edge-Cloud LLM(EC-LLM)系统中的及时安全性,服务延迟和系统资源优化。为了增强提示安全性,提出了启用矢量数据库的轻质攻击检测器。我们将联合及时检测,延迟和资源优化的问题形式化为多阶段动态贝叶斯游戏模型。平衡策略是通过通过贝叶斯更新在每个阶段预测恶意任务的数量和更新信念来确定的。对实施的EC-LLM系统进行了评估,并且与最先进的算法相比,我们的方法提供了增强的安全性,减少良性用户的服务潜伏期,并减少系统资源消耗。索引术语 - 提示攻击,edge-cloud,llm,资源运行,贝叶斯游戏
在预训练和微调期间,大型语言模型 (LLM) 都会在质量参差不齐的数万亿个文本标记上进行训练。这两个训练阶段通常都涉及启发式地滤除“低质量”或嘈杂的训练样本,但对于噪声的类型或强度如何影响下游性能,人们知之甚少。在这项工作中,我们研究了思路链 (CoT) 中的噪声如何影响算法可解任务的高度受控设置中的任务性能。首先,我们开发了跟踪整数 (TInt) 框架来为整数列表上的任何算术函数生成高度可定制的带噪声执行跟踪。然后,我们定义了两种类型的噪声:静态噪声,一种在计算 CoT 跟踪后应用的局部形式的噪声,以及动态噪声,一种在计算跟踪时传播错误的全局形式的噪声。然后,我们评估了在不同数据集污染程度和强度的噪声数据集上,提示和微调预训练模型的测试性能。我们发现,微调模型对高水平静态噪声具有极强的鲁棒性,但在较低水平的动态噪声下则表现得更加糟糕。相比之下,少样本提示模型似乎对静态噪声也更加敏感。最后,我们讨论了我们的研究结果如何影响噪声过滤的最佳实践,并特别强调了去除包含具有全局误差的破坏性动态噪声的样本的重要性。
摘要 - 在临床推理中使用大型语言模型(LLM)有两个主要障碍。首先,尽管LLM在自然语言处理(NLP)任务中表现出巨大的希望,但它们在复杂的推理和计划中的表现却没有期望。其次,LLM使用不可解释的方法来做出与临床医生的认知过程根本不同的临床决策。这导致用户不信任。在本文中,我们提出了一个称为argdrestents的多代理框架,该框架旨在使基于LLM的代理通过互动来解释临床决策推理。Argmed-通过论证方案进行临床讨论(一种用于建模临床推理中认知过程的推理机制),然后将论证过程构造为对有冲突关系的指示图构建论证过程。最终,使用符号求解器来确定一系列理性和连贯的论点来支持决策。我们构建了一个正式的Argmed代理模型,并为理论保证提供了当前的猜想。Argmed-Agents使LLM可以通过以自定向方式产生推理的解释来模仿临床论证推理的过程。设置实验表明,与其他及时方法相比,Argsments不仅提高了复杂的临床决策推理问题的准确性,而且更重要的是,它为用户提供了提高其信心的决策解释。索引术语 - 临床决策支持,大语言模型,多代理系统,可解释的AI