科学研究有益于结果可重复且易于与替代溶液相媲美。例如,在计算机科学和机器人技术中,ImageNet [1]或MS-Coco [2]等计算机视觉基准取得了巨大进展。一个关键特征是,它们将视觉感知分解为从单一的,裁剪的框架标记到检测多个对象的困难的任务。这些基准肯定与(深)学习的复兴相吻合,并且可能在第一个位置启用了它[2]。机器人技术中存在多个基准的区域正在抓住和/或bin拾取[3] - [5]; [6,选项卡中讨论了更多内容。1]。尤其是DEX-NET [5]共同开发了用于掌握计划的新颖解决方案,并通过发布培训和评估数据集来改进它们。在运动计划社区中,仅建立了一些基准,例如,开放运动计划库(OMPL)[7],[8] 1或Parasol 2的创建者。这些要么仅限于简单的点对点计划,要么仅包含没有特定应用程序的抽象计划问题。相比之下,专门用于特定用例的基准套件是自主驾驶[9]或MotionBenchmaker进行操作运动计划[6]的公共路。但是,对于给定任务评估最佳机器人或模块化机器人组件的基准套件不存在。我们提供第一个基准套件来比较不同现实世界环境中的机器人和模块化机器人组件的各种成本功能。示例解决方案
随着自主驾驶技术的继续发展并逐渐成为现实,确保在复杂的交通情况下自动驾驶的安全已成为当前研究中的重点和挑战。无模型的深钢筋学习(深度强化学习)方法已被广泛用于解决复杂的交通情况下的运动计划问题,因为它们可以隐含地学习车辆之间的互动。但是,基于深度强化学习的当前规划方法表现出lim的鲁棒性和泛化性能。他们努力适应培训方案以外的交通状况,并面临困难处理因意外情况而引起的不确定性。因此,本文解决了综合交通情况所带来的挑战,例如无信号交叉点。首先利用在这些情况下观察到的相邻车辆的历史轨迹来做到这一点。通过基于门控复发单元(GRU)复发性神经网络的变量自动编码器(VAE),它提取了驱动程序样式功能。然后将这些驱动程序样式功能与其他状态参数集成在一起,并用于在扩展强化学习框架内训练运动计划策略。这种方法最终产生了一种更健壮和可解释的中期运动计划方法。实验结果证实,在复杂的传统方案中,提出的方法可实现低碰撞率,高效率和成功完成任务。
本运动计划解决了设施复原力的关键要素:环境复原力、能源准备和建立伙伴关系。它概述了海军陆战队将采取的步骤,以避免、准备、尽量减少可能影响我们设施的威胁的影响、适应和恢复,符合国防部气候适应计划(参考(d));国防部减少温室气体排放计划(参考(e));海军部 2030 气候行动(参考(f));行政命令 14057,“通过联邦可持续性催化清洁能源产业和就业”(参考(g));以及海军部长指导(参考(h)-(k)),通过增强设施复原力和可持续性。海军陆战队设施司令部(MCICOM)是此复原力和准备运动计划及其在海军陆战队设施中实施的军种领导。
摘要 - 我们提出了Mbappe,这是一种新型的运动计划方法,用于自动驾驶,将树搜索与部分学习的环境模型相结合。利用蒙特 - 卡洛搜索树(MCT)固有的可解释的探索和优化功能,我们的方法在动态环境中构成复杂的决策。我们提出了一个将MCT与监督学习相结合的框架,使自动驾驶汽车能够有效地浏览各种情况。实验结果证明了我们方法的有效性和适应性,展示了改进的实时决策和避免碰撞。本文通过为自动驾驶系统中的运动计划提供了强大的解决方案,从而为该领域做出了贡献,并具有解释性和可靠性。代码可用https://github.com/raphychek/mbappe-nuplan。
^plexus重置临床试验的参与者平均损失5.36磅,体内脂肪1%,距腰围和臀部区域约2厘米。个别结果将根据起点和对程序的承诺而有所不同。可以通过遵循结构化的,减少的饮食和运动计划来避免重置丛集后的体重。
动态环境中的抽象运动计划是一项具有挑战性的机器人任务,需要避免碰撞和实时计算。最新的在线方法作为速度障碍(VO)保证安全的本地计划,而基于强化学习或图形离散化的全球计划方法在计算上效率低下或不可证明是碰撞的安全性。在本文中,我们将蒙特卡洛树搜索(MCT)与VO结合起来,以修剪不安全的动作(即相撞速度)。以这种方式,即使在非常大的动作空间(60个动作)中,我们可以进行极少的MCT模拟计划,比使用许多模拟的纯MCT获得更高的累积奖励和更低的计算时间。此外,由于与VO的动作修剪,我们的方法可以保证避免碰撞,而纯MCT则没有。在本文中铺平了在实际机器人和多代理分散运动计划上计划MCT计划的道路。