在零射门学习(ZSL)领域,我们在广义零局学习(GZSL)模型中介绍了偏爱数据的模型。为了解决这个问题,我们引入了一个名为D 3 GZSL的端到端生成GZSL框架。对于更平衡的模型,该框架尊重所见和合成的未见数据分别为分布和分布数据。d 3 GZSL包括两个核心模块:分配双空间蒸馏(ID 2 SD)和分布外批处理蒸馏(O 2 DBD)。ID 2 SD在嵌入和标签空间中的教师学生成果对齐,从而增强了学习连贯性。o 2 dbd在每个批次样本中引入了低维度的低分布表示形式,从而捕获了可见类别和未看到类别之间的共享结构。我们的方法证明了其在既定的GZSL基准测试中的有效性,无缝地集成到主流生成框架中。广泛的例子始终展示D 3 GZSL提高了现有生成GZSL方法的性能,从而低估了其重新零摄入学习实践的潜力。该代码可在以下方面获得:https://github.com/pjbq/pjbq/d3gzsl.git.git
生成的零拍学习(ZSL)学习了一个生成器来合成看不见类的视觉样本,这是推进ZSL的有效方法。然而,现有的发电方法依赖于高斯噪声和预定义的语义原型的条件,这限制了仅在特定的看到类中优化的发电机,而不是对每个视觉实例进行特征,从而导致概括不良(例如,过度适用于可见的类)。为了解决这个问题,我们提出了一种新颖的视觉启动动态语义原型方法(称为VADS),以增强发电机来学习准确的语义 - 视觉映射,以充分利用视觉效果的知识为语义条件。详细说明,VADS由两个模块组成:(1)视觉吸引域知识学习模块(VDKL)了解视觉特征的偏见和全局先验(称为域的视觉知识),这些偏见取代了纯净的高斯噪声,以提供更丰富的先验噪声信息; (2)以视觉为导向的语义更新模块(VOSU)根据样本的视觉表示更新语义原型。最终,我们将它们的输出作为动态语义原型串联,作为发电机的条件。广泛的实验表明,我们的VAD在三个突出的数据集上实现了上升的CZSL和GZSL prounperces,并且在Sun,Cub和Awa2上分别胜过其他最先进的方法,其平均分别增加了6.4%,5.9%,5.9%和4.2%。