Loading...
机构名称:
¥ 1.0

我们介绍了一声开放的负担能力学习(OOAL),其中一个模型只有一个基本对象类别的一个示例训练,但有望识别新颖的观点和负担能力。虽然视觉语言模型在识别新颖的物体和场景方面表现出色,但它们通常会努力理解诸如亲戚之类的粒度水平。为了解决这个问题,我们对现有基础模型进行了全面分析,以探索他们对负担的理解并评估潜在的数据限制负担能力学习。然后,我们提出了一个视觉语言框架,并具有简单有效的范围,以增强视觉特征和负担能力文本嵌入之间的对齐方式。对两个负担能力分割基准的实验表明,所提出的方法优于最先进的模型,这些模型少于1%的完整培训数据,并且在看不见的物体和负担能力上表现出合理的概括能力。项目页面:https://reagan1311.github.io/ooal。

一击开放的负担能力学习与基础模型

一击开放的负担能力学习与基础模型PDF文件第1页

一击开放的负担能力学习与基础模型PDF文件第2页

一击开放的负担能力学习与基础模型PDF文件第3页

一击开放的负担能力学习与基础模型PDF文件第4页

一击开放的负担能力学习与基础模型PDF文件第5页