要允许复制或重新出版,请联系美国航空与宇航学院1801 Alexander Bell Drive,Suite 500,Reston,VA,20191–4344
摘要 - “您的人形机器人可以做什么?”我们作为机器人主义者在与公众互动时必须回答的最常见问题可能是最常见的问题。通常,这个问题是在熟悉的家庭或办公室环境中构成的,暗示着对不平坦和混乱的地形的强大运动的期望,以及与人,物体和环境的合规互动。的问题暗示了人类机器人在运动计划者实施的一组体现的机车操作技巧的存在,这些技能是在给定相应命令时可检索的。在本文中,我们以有效,模块化和可扩展的运动计划者的形式为该问题提出答案。我们在三种具有挑战性的情况下演示了它的用途,旨在突出机器人的安全操作及其在非结构化环境中的精确运动。此外,我们讨论了从我们在扭矩控制的人形机器人实际实施方面的经验中得出的关键技术。
在自动驾驶汽车中,在不确定环境中的几个道路使用者中,在交通状况中是安全有效的操作。前瞻性运动计划策略试图预测周围的交通变动,然后使用这些预测来计划无碰撞的道路。在交通环境中,有多个汽车的中央研究问题是如何处理汽车,驾驶行为不确定性和周围环境的影响之间的相互作用,以实现安全的运动计划。本文提出了在不确定和动态环境中自动驾驶汽车的运动计划方法,并有助于设计达到期望绩效的策略。第一个贡献包括一种相互作用的策略预测模型预测调节(MPC)。该方法基于相互作用的模型的整合,以预测周围汽车的运动和自己的汽车的时间变化参考目标。结果是在动态的交通环境中进行的主动运动计划,其中几辆汽车不仅允许当地重新计划道路。第二个贡献扩展了MPC方法,也能够处理环境中的多模式操作不确定性,其中包括驾驶操作和特定方式的不确定。该方法包括对这些不确定性进行建模以及引入一个参数,该参数能够在运动计划者的性能和稳健性之间保持平衡。第三个贡献集中在自动学习上,同时驱动周围汽车的运动不确定性,以避免操作员过于谨慎,而不会损害安全性。该方法是基于学习周围汽车的驾驶行为的基础,并采用后续策略来预测他们在不久的将来可以占据的道路的哪一部分。第四个贡献是一个注重环境意识的运动计划策略师,可以预测有关道路属性的周围汽车中可能驾驶操作。通过整合这些因素,该方法可以有效地预测周围汽车的运动,然后将其用于制定业务计划问题中的碰撞折叠标准。通过在各种交通情况下进行的模拟和实验,自动驾驶汽车可以通过整合对互动的意识,周围的汽车的不确定性以及周围环境的特征来实现安全有效的运动计划。
摘要 - 具有复杂动态的机器人系统的动态计划是一个具有挑战性的问题。最近基于抽样的算法通过传播随机控制输入来实现渐近最优性,但它们的经验收敛速率通常很差,尤其是在高维系统(如多电动器)中。另一种方法是使用简化的几何模型进行首先计划,然后使用轨迹优化来遵循参考路径,同时考虑真实动力学。但是,如果初始猜测不接近动态可行的轨迹,则此方法可能无法产生有效的轨迹。在本文中,我们提出了迭代的不连续性A*(IDB- a*),这是一种新型的运动动力运动计划者,可以迭代地结合搜索和优化。搜索步骤利用了有限的短轨迹(运动原语),这些轨迹是相互互连的,同时允许它们之间存在界限的不连续性。优化步骤在本地通过轨迹优化的不连续性进行了修复。通过逐步降低允许的不连续性并结合更多的运动原始性,我们的算法可实现渐近最优性,并在任何时候表现出色。我们提供了八个不同动力学系统的43个问题的基准,包括不同版本的独轮和多旋转器。与最先进的方法相比,IDB-A*始终如一地解决了更多的问题实例,并更快地发现了较低成本的解决方案。
摘要 - 由数字技术和自动化的整体推动的智能行业的出现,彻底改变了制造业和工业流程。机器人技术和人工智能(AI)处于这种转变的最前沿,推动了对机器人自动化和运动计划的广泛研究。传统的运动计划算法,例如人工电位领域,生物启发的启发式方法和基于抽样的方法,通常在复杂的环境中流动,因为它们的高计算需求和产生非最佳解决方案的趋势。强化学习(RL)已成为一种强大的替代方案,在动态设置中提供了实时适应和最佳决策。本文回顾了经典运动计划方法的固有局限性,并探讨了基于RL的方法中的当代趋势,重点是它们在智能行业中的应用。它突出了RL在增强适应性,效率和鲁棒性方面的优势,尤其是在高维和动态环境中。关键讨论包括将RL与传统技术的集成,RL应用在各个领域的扩展以及基于传感器的方法在改善运动控制中的作用。
在机器人或其他物理系统上部署深层神经网络时,学到的模型应可靠地量化预测性不确定性。可靠的不确定性允许下游模块推理其行动的安全性。在这项工作中,我们解决了不确定性量化的指标。具体来说,我们专注于回归任务,并研究稀疏误差(AUSE),校准误差(CE),Spearman的等级相关性和负模样(NLL)下的区域。使用多个数据集,我们研究了这些指标在四种典型类型的不确定性下的行为,它们在测试集的大小上的稳定性以及揭示其优势和缺点。我们的结果表明,校准误差是最稳定,最容易解释的度量,但是Ause和NLL也具有各自的用例。我们不建议您评估不确定性的Spearman等级相关性,并建议用Ause代替它。
摘要我们为自动驾驶的实时可行的基于组合编程的决策(MIP-DM)系统开发。使用线性车辆模型在公路对准的坐标框架中,车道变化限制,避免碰撞和运行规则可以作为混合成分不平等的配方,从而导致混合构成二次统一程序(MIQP)。提出的MIP-DM通过在每个采样瞬间求解MIQP来执行操纵选择和轨迹产生。过去认为实时求解MIQP是棘手的,但我们表明我们最近开发的求解器BB-ASIPM能够实时解决嵌入式硬件的MIP-DM问题。在各种情况下,在仿真中说明了这种方法的性能,包括合并点和交叉点,以及在dspace scalexio和microautobox-iii中的硬件式仿真。最后,我们显示了使用小型车辆的实验。
摘要 - 用于运动计划的运动计划(RL)在慢训练速度和差异性差方面仍然具有低效率和差异性。在本文中,我们提出了一种新型的基于RL的机器人运动计划框架,该框架使用隐式行为克隆(IBC)和动态运动原始(DMP)来提高训练速度和外部RL试剂的概括性。IBC利用人类演示数据来利用RL的训练速度,而DMP则是一种启发式模型,将运动计划转移到更简单的计划空间。为了支持这一点,我们还使用可用于类似研究的选择实验创建了人类的示范数据集。比较研究揭示了所提出的方法比传统RL药剂的优势,训练速度更快,得分更高。实体实验实验指示了所提出的方法对简单组装任务的适用性。我们的工作提供了一种新的观点,即使用运动原语和人类演示来利用RL的性能用于机器人应用。
摘要 - 动感计划者对于在各种情况下自动化车辆的安全操作至关重要。但是,没有运动计划算法在文献中实现了完美,并且提高其绩效通常是耗时且劳动力密集的。为了解决上述问题,我们提出了Drplanner,这是第一个旨在使用大型语言模式自动诊断和维修运动计划者的框架。最初,我们从天然和编程语言中生成了计划者及其计划的轨迹的结构化描述。利用大型语言模型的深刻功能,我们的框架返回了修复的计划者,并具有详细的诊断描述。此外,我们的框架在评估修复结果的评估中持续反馈在迭代上进步。使用基于搜索和采样的运动计划者为自动车辆验证我们的方法;实验结果强调了在提示中进行演示的需求,并表明了我们框架有效识别和纠正难以捉摸的问题的能力。
摘要 - 本文提出了一种在线两足动物的脚步计划策略,该策略结合了模型预测性控制(MPC)和增强学习(RL),以实现敏捷且健壮的两足动物。基于MPC的脚部放置控制器已经证明了它们在实现动态运动方面的有效性,但它们的性能通常受到使用简化模型和假设的限制。为了应对这一挑战,我们开发了一个新颖的脚放置控制器,该控制器利用了一项学识渊博的政策来弥合使用简化模型和更复杂的全阶机器人系统之间的差距。具体来说,我们的方法采用了基于ALIP的MPC脚部放置控制器的独特组合,用于次级脚步计划,并提供了精炼脚步调整的学习政策,从而使所得的脚步策略有效地捕获了机器人的全身动态。这种集成协同MPC的预测能力,其灵活性和适应性能力。我们通过使用全身人形机器人Draco3。结果表明,动态运动性能的显着改善,包括更好地跟踪各种步行速度,使可靠的转弯和穿越具有挑战性的地形,同时与基线ALIP ALIP ALIP MPC接近相比,保持步行步态的稳健性和稳定性。