3学习步态过渡的基于模型的最佳控制21 3.1动机。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。21 3.2相关文献。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。24 3.3基于模型的控制器。。。。。。。。。。。。。。。。。。。。。。。。。。24 3.3.1体系结构概述。。。。。。。。。。。。。。。。。。。。。。。25 3.3.2步态过渡机制。。。。。。。。。。。。。。。。。。。。。25 3.4学习步态适应政策。。。。。。。。。。。。。。。。。。。。。26 3.4.1控制步态时间。。。。。。。。。。。。。。。。。。。。27 3.4.2 MDP定义。。。。。。。。。。。。。。。。。。。。。。。。。。。28 3.5结果。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。30 3.5.1适应的步态和速度跟踪。。。。。。。。。。。。。。。31 3.5.2能源效率。。。。。。。。。。。。。。。。。。。。。。。。。。32 3.5.3与相关工作的比较。。。。。。。。。。。。。。。。。。33 3.5.4消融研究。。。。。。。。。。。。。。。。。。。。。。。。。。34 3.6结论。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。36
摘要 - 如今,上线对许多生态系统的平衡构成了重大威胁。一个例子是大海,垃圾来自海岸和城市,通过排水沟,街道和水道,在分解过程中释放有毒的化学物质和微塑料。垃圾去除通常是由人手动执行的,这本质上会降低可以从环境中有效收集的废物量。在本文中,我们提出了一个新颖的四足机器人原型,由于其自然机动性,它能够自主收集烟头,这是全球第二常见的最常见的无垃圾废物,在很难触及轮式和追踪机器人的地形上。我们方法的核心是用于垃圾检测的卷积神经网络,其次是时间优化的计划者,用于减少收集所有目标对象所需的时间。精确的垃圾去除,该过程驱动了真空吸尘器的喷嘴,该清洁器连接到检测到的香烟屁股顶部的机器人腿上之一。由于喷嘴的这种特殊位置,我们能够执行收集任务,而无需停止机器人的运动,从而大大增加了整个过程的时间效率。在六个不同的室外场景中进行了广泛的测试,以显示我们的原型和方法的性能。对作者的最佳知识,这是第一次提出这种设计和方法并在腿部机器人上成功测试。
www.unitree.com 四足机器人智能巡检解决方案 ※ 本产品为民用机器人,请用户避免对本产品进行任何危险的改造或以危险的方式使用本产品。
1。论文的目的是比较在模拟中实施的几个最新的四倍的运动控制器,制定指南,表明哪种控制器在哪种情况下更好,最后,实施一个示例决策策略,该示例可以根据当前上下文进行切换。2。最初,学生应审查四倍运动控制器的可用文献和实施。3。接下来,学生应创建必要的应用程序,以便在同一模拟器中运行所有控制器以进行公平比较。学生应设计适当的模拟场景,该场景将用于比较控制器。4。学生应提出和评估合适的指标,以便为给定任务选择最佳控制器。应从比较结果中提取一个简单的面向用户指南。5。最后,学生应实施一种上下文感知的策略,该策略将能够在多个运动控制器之间切换,以在某些设计的方案中实现设计指标的卓越性能。
摘要 - 多任务机器人学习在应对多样化和复杂方案方面具有重要的重要性。但是,在收集培训数据集的性能问题和困难中,当前的方法受到了阻碍。在本文中,我们提出了细菌(通才机器人模型)。我们利用离线加强学习来优化数据利用策略,以从演示和亚最佳数据中学习,从而超过了人类示范的局限性。此后,我们采用基于变压器的VLA网络来处理多模态输入和输出操作。通过引入Experts结构的混合物,细菌允许使用更高的整个模型容量的推理速度更快,从而解决了有限的RL参数的问题,从而在控制计算成本的同时增强了多任务学习中的模型性能。通过一系列实验,我们证明了细菌在所有任务中都优于其他方法,同时还验证了其在培训和推理过程中的效率。此外,我们发现了其获得新兴技能的潜力。此外,我们贡献了Quard-Auto数据集,该数据集自动收集以支持我们的培训方法并促进多任务四倍的机器人学习中的进步。这项工作提出了一种新的范式,用于降低收集机器人数据和推动多任务学习社区进度的成本。您可以通过链接:https://songwxuan.github.io/germ/到达我们的项目和视频。
摘要:不断学习的能力对于机器人获得高水平的智力和自主权至关重要。在本文中,我们考虑针对四足机器人的连续加强学习(RL),其中包括能够不断学习子序列任务(可塑性)并保持先前任务的性能(稳定性)的能力。提出的方法获得的策略使机器人能够依次学习多个任务,同时克服了灾难性的遗忘和可塑性的丧失。同时,它可以实现上述目标,并尽可能少地修改原始RL学习过程。所提出的方法使用Piggyback算法为每个任务选择受保护的参数,并重新定位未使用的参数以提高可塑性。同时,我们鼓励探索政策网络,鼓励策略网络的软网络的熵。我们的实验表明,传统的持续学习算法在机器人运动问题上不能很好地表现,并且我们的算法对RL培训的进度更加稳定,并且对RL培训的进度更少。几个机器人运动实验验证了我们方法的有效性。
展示人工智能 (AI) 能力的挑战之一是找到有效的方式来以切实的方式展示其能力。在本文中,我们使用 Unitree A1 四足机器人展示了一个基于视觉的 AI 演示器。该演示器旨在供苏黎世应用科技大学人工智能中心 (CAI) 使用,以在现实环境中展示 AI 的能力,例如展览。为了实现这一点,我们开发了一个应用程序,允许机器人响应四种特定的手势。该软件从机器人的集成摄像头接收实时图像,并利用 MediaPipe 框架进行手部跟踪和界标点生成,这些界标点实时显示在远程 PC 上。我们根据 3768 个手势记录训练的逻辑回归模型随后会检测站在机器人前面的用户做出的手势。该模型与机器人的系统进行通信,允许通过用户界面控制其检测和姿势。在我们的实验室测试中,机器人展示了每个手势的平均准确率为 91%。然而,我们发现在强光或弱光环境中,机器人的性能不太可靠,准确率仅为 70%。为了提高机器人在这些条件下的性能,我们建议实施额外的算法或微调 MediaPipe 管道。总的来说,我们的演示器为 CAI 部门提供了一个展示 AI 的宝贵工具,因为它允许观众使用直观的手势与机器人互动,并通过观察机器人的即时反应来亲身体验 AI。
机器人在其使用寿命期间通常受固定形态的约束,只能调整其控制策略。在这里,我们展示了第一个可以在形态上适应户外非结构化环境中不同环境条件的四足机器人。我们的解决方案植根于具身人工智能,由两个部分组成;(i)允许现场形态适应的机器人,以及(ii)基于当前感知的地形在最节能形态之间转换的适应算法。首先,我们建立一个模型来描述机器人形态如何影响选定地形上的性能。然后,我们在真实的户外地形中测试持续适应,同时允许机器人不断更新其模型。我们表明,机器人利用其训练有效地在不同的形态配置之间转换,与非自适应方法相比,性能显著提高。现实世界形态适应的已证明的好处表明,未来机器人设计中可能存在一种将适应性融入其中的新方式。