聚合和调整自然语言提示以实现 CLIP 的下游泛化

大型预训练视觉语言模型(如 CLIP)已显示出良好的泛化能力,但在专业领域(例如卫星图像)或细粒度分类(例如汽车模型)中可能会遇到困难,因为在预训练期间看不到视觉概念或视觉概念代表性不足。即时学习提供了一个参数高效的微调框架,即使在注释数据有限的情况下,也可以使 CLIP 适应下游任务。在本文中,我们通过从自然语言提示(人工或 LLM 生成)中提取文本知识来改进即时学习,以提供……

来源:Apple机器学习研究

400不良请求

您的请求已被我们的服务器的安全策略所阻止。

如果您认为这是一个错误,请联系我们的支持团队。

支持团队