视觉模型将几乎无监督的作物分割带到了田地

通过利用视觉基础模型,称为Depth Athot v2,该方法可以准确地分割各种环境(场,实验室和空中)的作物,从而降低了农业数据准备的时间和成本。

来源:英国物理学家网首页
深度任何模型都可以从不同的图像捕获场景中提取高质量的伪农作物面具。学分:植物现象学(2025)。 doi:10.1016/j.plaple.2025.100005
植物现象学

通过利用视觉基础模型,称为Depth Athot v2,该方法可以准确地分割各种环境(场,实验室和空中)的作物,从而降低了农业数据准备的时间和成本。

作物分割,是识别图像中农作物区域的过程,是农业监测任务的基础,例如产量预测,害虫检测和增长评估。传统方法依赖于基于颜色的提示,这些提示在不同的照明和复杂的背景下挣扎。

分割

深度学习彻底改变了这一领域,但它需要大型,精心标记的数据集,这是一个昂贵且劳动密集型的瓶颈。以前使用弱或自制学习降低标签成本的努力已经面临绩效的权衡或所需的复杂设置。基础模型的出现现在提供了新的范式。

一项由Hao Lu团队(Huazhong科学技术大学)发表在植物现象学上的研究,可降低高通量植物表型和精确农业的劳动力和成本。

研究

为了评估DepthCropseg的有效性,研究人员实施了一项全面的实验协议,涉及四个主流语义分割模型 - U-NET,DEEPLABV3+,SEGFORMER和MASK2FORMER(作为基础线),以及两个类别 - 敏捷的模型,SAM和HQ-SAM。这些模型是使用深度v2产生的伪标记的农作物图像的粗糙和精细集的训练的,并且它们的性能是根据对手动注释数据训练的完全监督模型进行了基准的。

图像 更多信息: doi:10.1016/j.plaple.2025.100005