详细内容或原文请订阅后点击阅览
聚合和调整自然语言提示以实现 CLIP 的下游泛化
大型预训练视觉语言模型(如 CLIP)已显示出良好的泛化能力,但在专业领域(例如卫星图像)或细粒度分类(例如汽车模型)中可能会遇到困难,因为在预训练期间看不到视觉概念或视觉概念代表性不足。即时学习提供了一个参数高效的微调框架,即使在注释数据有限的情况下,也可以使 CLIP 适应下游任务。在本文中,我们通过从自然语言提示(人工或 LLM 生成)中提取文本知识来改进即时学习,以提供……
来源:Apple机器学习研究400不良请求
您的请求已被我们的服务器的安全策略所阻止。
如果您认为这是一个错误,请联系我们的支持团队。
支持团队