摘要:亲自识别,重新排列是通过完善检索结果的初始排名来提高整体准确性的关键步骤。先前的研究主要集中在单视图像的特征上,这些特征可能会导致偏见和诸如姿势变化,观点变化和遮挡等问题。使用多视图来介绍一个人可以帮助减少视图偏差。在这项工作中,我们提出了一种有效的重新级别方法,该方法通过使用K-Neartivt加权融合(KWF)方法来汇总邻居的功能来生成多视图特征。具体来说,我们假设从重新识别模型中提取的特征在表示相同的身份时高度相似。因此,我们以无监督的方式选择K相邻功能来生成多视图功能。此外,本研究探讨了特征聚合过程中的重量选择策略,从而使我们能够确定有效的策略。我们的重新排列方法不需要模型进行微调或额外的注释,因此它适用于大规模数据集。我们在重新识别数据集Market1501,MSMT17和遮挡的dukemtmc上评估我们的方法。结果表明,从初始排名结果中重新列出顶级M候选者时,我们的方法会显着提高列表@1并映射。具体而言,与初始结果相比,我们的重新排列方法在具有挑战性的数据集中,等级@1的提高分别为9.8% / 22.0%:MSMT17和闭塞性dukemtmc。此外,我们的方法证明了与其他重新排列方法相比,计算效率的实质性提高。
人重新识别(REID)旨在在非重叠的摄像机图像中检索相关的人,并且在公共安全领域具有广泛的应用。近年来,随着视觉变压器(VIT)和自我监督的学习技术的发展,基于自我监督的预训练的人的REID的表现得到了极大的改善。人Reid需要提取人体的高度歧视性局部细粒度特征,而传统的VIT则擅长提取与上下文相关的全球特征,从而难以专注于当地的人体特征。为此,本文介绍了最近出现的掩盖图像建模(MIM)自制的学习方法,并通过将掩盖的图像建模和歧视性的损坏性学习和进行训练的人进行训练的任务来有效地提取高质量的全球和本地特征。此人的特征提取方法基于VIT,具有掩盖图像建模(PersonVit)具有无关,可扩展性和强大的概括能力的良好特征,克服了受监督人员REID中难以注释的问题,并在包括MSMT17,Market1501,dukem-comp的公共可用基础数据集中实现了最先进的结果。PersonVit方法的代码和预培训模型将在https://github.com/hustvl/personvit上发布,以促进REID领域的进一步研究。
