人类的生命中有铰接的物体。对清晰的物体的综合理解,即外观,结构,物理特性和语义,将使许多研究社区受益。作为当前的符号对象理解解决方案通常是基于具有无物理属性的CAD模型的合成对象数据集,从而阻止了在视觉和机器人任务中的实现对现实世界应用的满足概括。为了弥合差距,我们提出了AKB-48:一个大规模的对象k nowledge b ase,由48个猫咪的2,037个现实世界3D 3D铰接式对象模型组成。每个对象由知识图Artikg描述。为了构建AKB-48,我们提出了快速的发音知识建模(FARM)管道,可以在10-15分钟内满足铰接对象的Artikg,并在很大程度上降低了Real
以生物风格的活动相机跟踪近年来引起了人们的兴趣。现有的作品要么利用对齐的RGB和事件数据进行准确跟踪,要么直接学习基于事件的跟踪器。前者会产生较高的推理成本,而后者可能容易受到嘈杂事件或稀疏空间分辨率的影响。在本文中,我们提出了一个新型的分层知识蒸馏框架,该框架可以在培训期间完全利用多模式 /多视图信息,以促进知识转移,使我们能够仅使用事件信号来实现测试过程中高速和低潜伏期视觉跟踪。特别是,基于教师变压器的多模态跟踪框架首先是通过同时喂食RGB框架和事件流来训练的。然后,我们设计了一种新的分层知识蒸馏策略,其中包括成对相似性,功能表示和基于响应地图的知识蒸馏,以指导学生变形金刚网络的学习。在术语中,由于现有的基于事件的跟踪数据集都是低分辨率(346×260),因此我们提出了名为EventVot的第一个大规模高分辨率(1280×720)数据集。它包含1141个视频,并涵盖了许多类别,例如行人,车辆,无人机,乒乓球等。对低分辨率(Fe240Hz,Vi-Sevent,Coesot)和我们新提出的高分辨率EventVot数据集的进行了实验进行了实验
我们介绍多视图的细心上下文化(MVACON),这是一种简单而有效的方法,用于改善基于查询的多视图3D(MV3D)对象检测中的2D- TO-3D功能。尽管在基于查询的MV3D对象检测的领域取得了显着的进展,但先前的艺术通常会因高分辨率的高分辨率2D特征而缺乏基于密集的注意力提升的高分辨率2D特征,或者由于高计算成本,或者由于3D Queries的高度密集地接地不足,无法以3D Queries的高度质量为基于稀疏注意的多级2D功能。我们提出的MVACON使用代表密集但计算稀疏的细心特征连续化方案击中了两只鸟,该方案对特定的2d到3d feleture提升方法不可知。在实验中,使用BEVFormer及其最近的3D变形注意(DFA3D)变体以及PETR对纳斯曲霉基准进行了彻底的测试,并显示出一致的检测性能提高,尤其是在位置,方向和VELOCITY PRECTICTAR中提高了一致的检测性能。还可以在Waymo-Mini基准测试器上进行测试,并具有类似的改进。我们在定性和定量上表明,基于全局群集的上下文有效地编码了MV3D检测的密集场景级上下文。我们提出的MVA-CON的有希望的结果加强了计算机视觉中的格言 - “(contectu-alsized)特征事项”。
尽管最近的研究通过深度学习技术突破了极限,但从 3D 点云中进行物体检测仍然是一项具有挑战性的任务。由于严重的空间遮挡和点密度随到传感器距离的固有变化,同一物体在点云数据中的外观会有很大变化。因此,设计针对这种外观变化的鲁棒特征表示是 3D 物体检测方法的关键问题。在本文中,我们创新地提出了一种类似域自适应的方法来增强特征表示的鲁棒性。更具体地说,我们弥合了特征来自真实场景的感知域和特征从由富含详细信息的非遮挡点云组成的增强场景中提取的概念域之间的差距。这种领域自适应方法模仿了人脑在进行物体感知时的功能。大量实验表明,我们简单而有效的方法从根本上提高了 3D 点云物体检测的性能并取得了最先进的结果。
股派发现金红利人民币 1.00 元(含税),预计分配现金红利总额为 81,906,040.00 元(含税)。 本次利润分配不送红股,不以公积金转增股本。在实施权益分派的股权登记日前公司总股本如 发生变动的,拟维持分配总额不变,相应调整每股分配比例。截至本募集说明书签署日,公司 2023 年度现金分红事项尚需 2023 年度股东周年大会审议通过。
对象检测在各种自主系统中至关重要,例如监视,自动驾驶和驾驶员的稳定性,通过识别行人,车辆,交通信号灯和标志来确保安全。然而,诸如雪,雾和雨等不利天气条件构成了挑战,具有检测准确性,冒险发生事故和大坝。这清楚地表明了在所有天气条件下都起作用的强大观察检测解决方案的必要性。我们采用了三种策略来增强不利天气中的基于深度学习的对象检测:对全球全天候图像进行培训,对图像进行培训,并具有合成的增强天气噪声,并将对象的变形与不利天气图像denosistighting进行整合。使用分析方法,GAN网络和样式转移网络产生合成天气噪声。我们使用BDD100K数据集中的真实世界全天候图像和用于评估未见现实世界的不利天气图像的评估,通过训练对象进行分割模型比较了这些策略的性能。通过降级现实世界的不利天气图像以及对物体检测的结果和原始嘈杂图像的结果进行了评估,从而评估了不利天气。我们发现,使用全天候现实世界图像训练的模型表现最佳,而对对象检测进行对象检测的策略则表现最差。
本本学论文研究了使Ari人形机器人能够使用机器学习和计算机视觉中的基本概念来学习和识别新对象的任务。该研究围绕着开发和实施直接向前的3D对象检测和分类管道,目的是使机器人能够识别以前尚未遇到的对象。该方法整合了开放式识别和增量学习的基本方面,重点是使用ARI机器人在实用环境中应用这些技术。通过一系列元素实验评估了实施系统的有效性,重点关注其检测和分类新的观察的能力。这些初始测试提供了有关系统在受控环境中的基本功能及其潜在效用的见解。本文在介绍性层面上有助于掌握机器人技术,并在实用机器人背景下对机器学习和计算机视觉的使用进行了初步探索。它为在机器人对象识别领域的未来研究奠定了基础。
和一个锅的不同)或意图(例如通过刀与使用它进行切割),我们人类可以毫不费力地描绘出与日常生活中日常物体的这种互动。在这项工作中,我们的目标是构建一个可以同样生成合理的手动配置的计算系统。具体来说,我们学习了一个基于扩散的常规模型,该模型捕获了3D相互作用期间手和对象的关节分布。给定一个类别的描述,例如“握着板的手”,我们的生成模型可以合成人手的相对配置和表达(见图1个顶部)。我们解决的一个关键问题是,该模型是什么好的HOI表示。通常通过空间(签名)距离场来描述对象形状,但人的手通常是通过由发音变量控制的参数网格建模的。我们提出了一个均匀的HOI表示,而不是在生成模型中对这些不同的代表进行建模,并表明这允许学习一个共同生成手和对象的3D扩散模型。除了能够合成各种合理的手和物体形状的综合外,我们的扩散模型还可以在跨任务的辅助推理之前作为通用,而这种表示是所需的输出。例如,重建或预测相互作用的问题对于旨在向人类学习的机器人或试图帮助他们的虚拟助手来说是核心重要性。重建的视频重新投影错误)或约束(例如我们考虑了这些行沿着这些行的两个经过深入研究的任务:i)从日常交互剪辑中重建3D手对象形状,ii)鉴于任意对象网格,合成了合理的人类grasps。为了利用学到的生成模型作为推论的先验,我们注意到我们的扩散模型允许在任何手动对象配置给定的(近似)log-likelihood梯度计算(近似)log-likelihoodhoodhood。我们将其纳入优化框架中,该框架结合了先前的基于可能性的指南与特定于任务的目标(例如已知对象网格的合成)推理。虽然理解手动相互作用是一个非常流行的研究领域,但现实世界中的数据集限制了3D中这种相互作用的限制仍然很少。因此,我们汇总了7种不同的现实世界交互数据集,从而导致157个对象类别的相互作用长期收集,并在这些范围内训练共享模型。据我们所知,我们的工作代表了第一个可以共同生成手和对象的生成模型,并且我们表明它允许综合跨类别的各种手动相互作用。此外,我们还经验评估了基于视频的重建和人类掌握合成的任务的先前指导的推断,并发现我们所学的先验可以帮助完成这两个任务,甚至可以改善特定于特定于任务的状态方法。
摘要。鉴于对最近的基于视觉模型的大规模多模式培训及其概括能力,因此了解其鲁棒性的程度对于他们的现实世界部署至关重要。在这项工作中,我们的目标是评估当前基于视觉模型的弹性,以应对不同的对象到后环上下文变化。大多数鲁棒性评估方法都引入了合成数据集,以引起对物体特征(观点,比例,颜色)的变化或实际图像上使用的图像转换技术(对抗性变化,常见的损坏),以模拟分离中的变化。最近的作品探索了利用大型语言模式和di!使用模型来产生背景变化。但是,这些方法要么缺乏对要进行的更改或扭曲对象语义的控制,从而使它们不适合任务。另一方面,我们的方法可以诱导各种对象兼容地面变化,同时保留对象的原始语义和对象的真实性。为了实现这一目标,我们利用文本对图像,图像到文本和图像对段的生成能力自动生成广泛的对象到背景的变化。我们通过修改文本提示或优化文本模型的潜伏期和Textual嵌入来引起自然和对抗背景的变化。这使我们能够量化背景上下文在理解深神经网络的鲁棒性和一般性中的作用。我们生产了各种版本的标准视觉数据集(Imagenet,Coco),将多样的和相同的背景纳入图像中,或在背景中引入颜色,纹理和对抗性变化。我们进行了彻底的实验,并对基于视觉模型的鲁棒性与对象之间的背景环境之间的鲁棒性进行了深入的分析。我们的代码和评估基准将在https://github.com/muhammad-huzaifaa/ObjectCompose上找到。
编辑委员会博士Mustafa Necmiİlhan博士 - 加兹大学 - Özlemçakir博士 - DokuzEylül大学协会。MehmetMerveÖzaydın-AnkaraHacıBayramVeli University Assoc。
