代理(一种通过传感器感知环境并通过效应器对其采取行动的实体)的概念自任务自动化开始以来一直在不断发展。3 随着大型语言模型(LLM - 处理自然语言的 AI 模型)和大型多模态模型(LMM - 处理自然语言、图像、视频和/或音频的 AI 模型)的最新进展,AI 代理的概念正在进入快速发展和实验的新阶段。目前,这一阶段出现了一系列新用例,从编码助手到工作流自动化、个人助理以及更多应用领域。
自动化工厂、核电站、电信中心和空间站等设施的计算机控制操作环境正变得越来越复杂。随着这种复杂性的增加,使用集中管理和调度策略来控制此类环境将变得越来越困难,这些策略既能应对意外事件,又能灵活应对可能随时间发生的操作和环境变化。解决这个问题的一个越来越有吸引力的方法是将此类操作的控制权分配给许多智能的、能够完成任务的计算代理。现实世界领域可能由多个代理组成。在这样的领域中,代理通常会执行许多复杂的任务,这些任务需要在一定程度上关注环境变化、时间限制、计算资源界限以及代理的短期行动可能对其长期目标产生的影响。在现实世界中操作意味着必须在时间和空间的多个粒度级别上处理意外事件。虽然代理必须保持反应能力才能生存,但如果代理要与其他代理协调其行动并以有效的方式处理复杂任务,则需要一定程度的战略和预测决策。本论文提出了一种新的集成代理架构,旨在为具有
自动化工厂、核电站、电信中心和空间站等设施的计算机控制操作环境正变得越来越复杂。随着这种复杂性的增长,使用集中管理和调度策略来控制此类环境将变得越来越困难,这些策略既能应对意外事件,又能灵活应对可能随时间发生的操作和环境变化。解决这个问题的一个越来越有吸引力的方法是将此类操作的控制权分配给许多智能的、能够完成任务的计算代理。现实世界领域可能由多个代理组成。在这样的领域中,代理通常会执行许多复杂的任务,这些任务需要在一定程度上关注环境变化、时间限制、计算资源界限以及代理的短期行动可能对其长期目标产生的影响。在现实世界中操作意味着必须在时间和空间的多个粒度级别上处理意外事件。虽然代理必须保持反应才能生存,但如果代理要与其他代理协调行动并以有效的方式处理复杂任务,则需要一定程度的战略和预测决策。本论文提出了一种新的集成代理架构,旨在为理性、自主、移动的代理提供在动态、实时、多代理领域中执行复杂、资源受限任务通常所需的各种行为。在调查了一系列现有架构并充分考虑了在特定此类领域中产生有效、稳健和灵活行为的要求后,通过集成许多审议和非审议控制功能,设计了最终的软件控制架构——TouringMachine 代理架构。这些功能以分层方式排列,组合起来赋予代理丰富的反应、目标导向、反思和预测能力。考虑到代理的内部配置、任务环境和随后的行为库之间存在的复杂关系,代理架构已与功能丰富的仪表化模拟测试平台结合实施。该测试平台允许创建一组不同的单代理和多代理导航任务场景,已用于评估架构的实用性并确定其一些主要优点和缺点。
自动化工厂、核电站、电信中心和空间站等设施的计算机控制操作环境正变得越来越复杂。随着这种复杂性的增长,使用集中管理和调度策略来控制此类环境将变得越来越困难,这些策略既能应对意外事件,又能灵活应对可能随时间发生的操作和环境变化。解决这个问题的一个越来越有吸引力的方法是将此类操作的控制权分配给许多智能的、能够完成任务的计算代理。现实世界领域可能由多个代理组成。在这样的领域中,代理通常会执行许多复杂的任务,这些任务需要在一定程度上关注环境变化、时间限制、计算资源界限以及代理的短期行动可能对其长期目标产生的影响。在现实世界中操作意味着必须在时间和空间的多个粒度级别上处理意外事件。虽然代理必须保持反应才能生存,但如果代理要与其他代理协调行动并以有效的方式处理复杂任务,则需要一定程度的战略和预测决策。本论文提出了一种新的集成代理架构,旨在为理性、自主、移动的代理提供在动态、实时、多代理领域中执行复杂、资源受限任务通常所需的各种行为。在调查了一系列现有架构并充分考虑了在特定此类领域中产生有效、稳健和灵活行为的要求后,通过集成许多审议和非审议控制功能,设计了最终的软件控制架构——TouringMachine 代理架构。这些功能以分层方式排列,组合起来赋予代理丰富的反应、目标导向、反思和预测能力。考虑到代理的内部配置、任务环境和随后的行为库之间存在的复杂关系,代理架构已与功能丰富的仪表化模拟测试平台结合实施。该测试平台允许创建一组不同的单代理和多代理导航任务场景,已用于评估架构的实用性并确定其一些主要优点和缺点。
通过多种具有多种专业知识和工具的LLM授权代理的合作,多代理系统在解决现实世界中的问题方面取得了令人印象深刻的进步。给定用户查询,需要将查询分解为可以分配给能够求解它们的合适代理的多个子任务中的元代理,以多代理系统的大脑为大脑。在这项研究中,我们确定了面向代理计划的三个关键规定原则,包括解决性,完整性和非差额,以确保可以有效地解决每个子任务,并对对用户查询的满意响应进行质疑。这些原则进一步激发了我们提出的AOP,这是一个新型的多代理系统中面向代理计划的框架,利用快速的任务分解和分配过程,然后通过奖励模型进行有效,有效的评估。根据评估结果,元代理还负责迅速对子任务和调度进行必要的调整。此外,我们将反馈循环集成到AOP中,以进一步提高此类解决问题过程的有效性和鲁棒性。广泛的实验证明了与单一机构系统和多代理系统的存在计划策略相比,AOP在解决现实世界中的问题方面的进步。源代码可在https://github.com/lalaliat/agent-entiented-planning上找到。
摘要自主代理长期以来一直是学术和行业社区的研究重点。先前的研究通常集中于在孤立环境中具有有限知识的培训代理,这与人类学习过程有很大不同,并且使代理商难以实现类似人类的决策。最近,通过获得大量的Web知识,大型语言模型(LLM)在人类水平的智能中显示出潜力,从而导致对基于LLM的自主剂的研究激增。在本文中,我们对这些研究进行了全面的调查,从整体的角度对基于LLM的自主代理进行了系统的综述。我们首先讨论基于LLM的自主代理的构建,提出了一个统一的框架,该框架涵盖了以前的许多工作。然后,我们概述了基于LLM的自主代理在社会科学,自然科学和工程中的应用。最后,我们深入研究了通常用于基于LLM的自主剂的评估策略。基于先前的研究,我们还提出了该领域的几个挑战和未来方向。
摘要 文献中广泛研究了对人工智能代理的信任,从而显著加深了我们对这一领域的理解。然而,大型语言模型 (LLM) 的快速发展和基于 LLM 的人工智能代理框架的出现为进一步的研究带来了新的挑战和机遇。在流程自动化领域,出现了新一代基于人工智能的代理,可以执行复杂的任务。与此同时,通过用户友好的无代码工具和培训机制,业务用户更容易访问构建自动化的流程。本文探讨了这些新的挑战和机遇,分析了现有文献中讨论的对人工智能代理的信任的主要方面,并确定了与新一代自动化代理相关的具体考虑因素和挑战。我们还评估了这一类别的新兴产品如何解决这些问题。最后,我们强调了研究界在这个不断发展的环境中应该解决的几个挑战。
gdevreede@usf.edu 摘要 随着人工智能技术的兴起和在组织内的整合,我们对这项技术对个人的影响的理解仍然有限。尽管信息系统使用文献为组织提供了重要的指导,以提高员工使用新技术的意愿,但考虑到人类和人工智能代理之间不断发展的社会互动,先前信息系统使用研究的功利主义观点限制了其应用。我们通过实施社会观点来理解人工智能代理对个人感知和行为的影响,为信息系统使用文献做出了贡献。通过关注人工智能代理的主要设计维度,我们提出了一个利用社会心理学理论来解释这些设计维度对个人影响的框架。具体来说,我们基于相似性吸引理论提出了一个人工智能相似性-连续性模型,旨在解释与人工智能代理的相似性如何影响个人的 IT 身份和继续使用它的意图。通过在线头脑风暴实验,我们发现与人工智能代理的相似性确实对 IT 身份和继续与人工智能代理合作的意图产生了积极影响。
摘要:本综述从信息论的角度探讨了人工智能、心理学和经济学之间的一些核心关系,特别关注决策理论的形式模型。在此过程中,我们研究了每个领域所采用的特定方法,以及信息论如何为每个领域思想的发展提供信息。一个关键主题是预期效用理论、它与信息论的联系以及贝叶斯决策方法和(有限)理性的形式。从本综述中得出的是一种广泛统一的形式观点,它源自三个非常不同的起点,反映了每个领域的独特原则。至少在原则上,所审查的三种方法中的每一种都可以在计算模型中实现,这样,只要有足够的计算能力,它们就可以与人类在复杂任务中的能力进行比较。然而,萨维奇在《统计学基础》中首次提出了一个可以应用于这三种方法的核心批评,最近经济学家宾莫尔也提出了这一批评:贝叶斯决策方法在萨维奇所谓的“小世界”中有效,但在“大世界”中却行不通。这一点以各种不同的形式出现在当前关于人工智能的力量及其与类人学习和决策的关系的一些争论中。人工智能的最新研究在一定程度上弥补了这一差距,但为了在这些问题上取得进展,在这三个领域仍需要回答一些重要问题。
快速准确地应对威胁和不确定性的能力对于任务结果和生存力都至关重要。这样的系统从来都不是真正自主的,通常作为人机团队的一部分运作。人工智能代理 (IA) 已被提议作为帮助管理此类团队的工具;例如,向人类操作员建议潜在的行动方案。然而,由于缺乏信任,它们往往未得到充分利用。设计透明的代理(可以传达至少一些关于其内部推理过程的信息)被认为是一种增加信任的有效方法。人们如何与这种透明信息交互以获得态势感知同时避免信息过载目前是一个尚未探索的课题。在本文中,我们通过研究两种形式的透明度来部分回答这个问题:顺序透明度,要求人们按照固定顺序逐步浏览 IA 的解释;需求驱动的透明度,允许人们根据需要请求信息。在使用多车辆模拟的实验中,我们的结果表明,需求驱动的交互提高了操作员对系统的信任,同时保持了甚至有时提高了性能和可用性。