数据增强对改善深度元学习的鲁棒性是有益的。然而,最近的深度元学习的数据预言方法仍然基于光度或几何操作或图像的组合。本文提出了一个生成的对抗自动说明网络(GA3N),用于扩大增强搜索空间并提高分类精度。要实现,我们首先使用gans扩展了图像增强的搜索空间。但是,主要的挑战是生成适合任务的图像。对于解决方案,我们通过优化目标和gan损失来找到最佳策略。然后,我们使用由策略网络确定的操纵和生成的样本作为改进目标任务的增强样本。为了显示我们的方法的效果,我们通过组合GA3N并在CIFAR-100和Tiny-ImageNet数据集上进行评估来实现分类网络。因此,我们比每个数据集上的最新自动说明方法获得了更好的准确性。
预训练已在深度学习中被广泛采用,以提高模型性能,特别是当目标任务的训练数据有限时。在我们的工作中,我们试图了解这种训练策略对下游模型泛化特性的影响。更具体地说,我们提出以下问题:预训练分布的属性如何影响微调模型的鲁棒性?我们探索的属性包括预训练分布的标签空间、标签语义、图像多样性、数据域和数据量。我们发现影响下游有效鲁棒性的主要因素 [44] 是数据量,而其他因素的重要性有限。例如,将 ImageNet 预训练类别的数量减少 4 倍,同时将每个类别的图像数量增加 4 倍(即保持总数据量固定)不会影响微调模型的鲁棒性。我们展示了从各种自然和合成数据源中提取的预训练分布的发现,主要使用 iWildCam-WILDS 分布转变作为稳健性测试。
摘要 - 在模拟到现实世界中学到的传递政策是一种大规模获取机器人技能的有前途的策略。但是,SIM到实现的方法通常依赖于手动设计和任务奖励函数的调整以及模拟物理参数,从而使过程缓慢而人类限制。在本文中,我们使用大型语言模型(LLM)进行调查以自动化并加速模拟设计。我们的LLM引导的SIM到运行方法仅需要目标任务的物理模拟,并自动构建合适的奖励功能和域随机分布以支持现实世界传输。我们首先证明我们的方法可以发现SIM到真实的配置,这些配置与四倍的运动和灵巧的操纵任务上现有的人类设计的配置具有竞争力。然后,我们展示了我们的方法能够解决新颖的机器人任务,例如不迭代手动设计的瑜伽球上四倍的平衡和行走。
摘要 - 软机器人表现出合规性,并具有无限的自由度。多亏了这些特性,可以利用此类机器人进行手术,康复,仿生,探索未经培养的环境和工业抓地力。在这种情况下,它们吸引了来自各个领域的学者。但是,非线性和滞后作用也给机器人建模带来了负担。遵循其灵活性和适应性,软机器人控制比刚性机器人控制更具挑战性。为了建模和控制软机器人,以成对或单独使用了大量数据驱动的方法。本评论首先简要介绍了两个用于数据驱动方法的基础,即物理模型和雅各布矩阵,然后总结了三种数据驱动方法,即统计方法,神经网络和增强学习。本评论比较了这些类别内外的建模和控制器功能,例如模型动态,数据要求和目标任务。最后,我们总结了每种方法的功能。对现有建模和控制方法的优势和局限性进行了讨论,我们预测了软机器人中数据驱动方法的未来。网站(https://sites.google.com/view/23zcb)是为此评论而构建的,将经常更新。
计算理解视觉设计的基本结构,例如演示幻灯片和用户界面(UIS),使机器能够为盲人的人解释和描述视觉效果[44,51,72,84],将布局重新制定为新设备[37,38] [37,38],并基于用户能力个性化[20,54,56,77]。但是,构建启用这些功能的基础机器学习模型需要劳动密集型的数据收集和注释,这必须针对每种输入进行。我们提出了一种通过生成和渲染代码生成合成的结构化视觉效果的方法(图1)。我们的方法涉及三个阶段:首先,我们根据设计原理和目标任务创建具有大语言模型(LLM)的设计思想;其次,我们基于这些设计思想来生成标记的声明语言,例如HTML代码,以表示结构化的视觉效果;第三,我们过滤,后处理和渲染代码以生成最终的注释数据集。虽然我们的方法适用于各种类型的结构化视觉效果,但我们将方法应用于缺乏用于计算建模的高质量,公共数据集的两个应用程序域:演示幻灯片和UI屏幕截图。
将强化学习(RL)应用于稀疏的奖励 - 众所周知,由于指导信号不足,因此具有挑战性。解决此类领域的常见RL技术包括(1)从演示中学习和(2)课程学习。虽然已经详细研究了这两种方法,但很少将它们一起考虑。这是通过引入原则性的任务相位方法来自动生成课程序列来做到这一点的。使用(Subopti-Mal)演示的逆RL我们定义了一个简单的初始任务。然后,我们的任务相位方法提供了一个框架,以逐步将任务的复杂性一直延伸到目标任务,同时在每次估算中重新调整RL代理。考虑了两种相位的方法:(1)逐渐增加RL代理所控制的时间步骤的比例,以及(2)逐步淘汰指导性的信息奖励功能。我们提出的条件可以保证这些方法融合到最佳政策。对3个稀疏奖励域的实验结果表明,我们的任务相对于渐近性能,我们的任务逐步实现了最先进的方法。
极限学习机(ELM)是模式识别和机器学习中的快速且有效的神经网络模型,当标记的训练样本不足以使其下降。转移学习通过使用不同但相关域中的大量标记样本来帮助目标任务学习可靠的模型。在本文中,我们提出了一台具有知识传递性的监督极限学习机器,称为“转移极限学习机器”,具有输出权重对齐(telm-Owa)。首先,它通过对齐由来自源和目标域标记的样品训练的ELM的输出权重矩阵来减少域之间的分布差异。其次,将域间ELM输出权重矩阵之间的近似值添加到目标函数中,以进一步实现知识的跨域转移。tirdly,我们将目标函数视为最小平方问题,并将其转换为标准的ELM模型,以便有效地解决。最后,通过对16组图像数据集和6组文本数据集进行了分类实验对所提出算法的效果进行了验证,结果证明了我们方法相对于其他ELM模型和转移学习方法的竞争性能。
摘要。今天的深度学习方法着重于如何设计目标函数以使预测尽可能接近目标。同时,必须设计适当的神经网络体系结构。现有方法忽略一个事实,即当输入数据逐层特征转换时,会丢失大量信息。本文深入研究了信息瓶颈和可逆功能的重要问题。我们提出了可编程梯度信息(PGI)的概念,以应对深网所需的各种更改以实现多个目标。PGI可以为目标任务提供完整的输入信息来计算目标函数,以便可以获取可靠的梯度信息以更新网络参数。此外,设计了轻巧的网络体系结构 - 一般有效的层聚合网络(GELAN)。Gelan确认PGI在轻量级模型上取得了卓越的成绩。我们在MS可可对象检测数据集上验证了所提出的Gelan和PGI。结果表明,与基于深度卷积开发的状态方法相比,Gelan仅使用常规召集操作员来实现更好的参数利用。PGI可用于从轻量级到大型的各种型号。它可用于获取完整的信息,因此,与使用大型数据集进行预训练的最新模型可以实现训练范围的模型,比较结果如图1。源代码在https://github.com/wongkinyiu/yolov9上发布。
人们对身体-机器界面的兴趣日益浓厚,因此有必要了解如何训练用户使用非传统输入。在本研究中,开发了一个由受试者激活的表面肌电图控制任务测试,作为试验台,以观察自动训练方法对绩效、工作量和信任发展的影响。48 名受试者学习使用基于表面肌电图的命令系统执行 Fitts 定律式光标到目标任务,其中包括 120 次训练试验和 40 次评估试验。受试者被分为四组:对照组、并发反馈组、终端反馈组和自适应阈值组。对照组使用光标位置的视觉反馈通过重复进行训练和学习。并发反馈组在命令输入期间收到额外的并发虚拟反馈,终端反馈组在命令输入后收到补充视觉反馈。自适应阈值组没有任何额外反馈,但经历了旨在诱导运动学习适应的光标控制变化。结果表明:I)额外的视觉反馈可提高训练期间的任务表现、工作量和信任;2)训练结束时,各组的指挥能力趋于一致。
当前,Artemis 计划迫切需要一种多功能、高负载、长距离的操作系统,以便为月球着陆器提供有效载荷的卸载和处理。轻型表面操作系统 (LSMS) 是一种结构高效、长距离的机械臂,可适应多种任务和有效载荷范围。LSMS 在美国宇航局兰利研究中心 (LaRC) 已有十多年的历史和测试,包括多种末端执行器工具和操作场景的实验室和现场测试。由于需要快速开发经过飞行验证的卸载能力,并希望该设备可在未来的任务和服务中重复使用,美国宇航局的空间技术任务理事会今年启动了一项为期 4 年的项目,以开发和建造 LSMS 的原型飞行装置,该装置能够在月球上以 8 米的举升范围举起 1,000 公斤的重物。目标任务是作为技术演示器在大型货运着陆器上飞行,以验证自动调平、部署和有效载荷处理操作,未来的飞行将增加额外的工具和能力。本文总结了过去十年的 LSMS 工作、当前任务驱动因素和目标,并详细介绍了 LSMS 向原型飞行单元发展的第一年。