分割算法的疗效经常因拓扑错误,连接中断和空隙等拓扑错误而受到损害。为了解决这一问题,我们引入了一种新颖的损失函数,即拓扑 - 意识局灶性损失(TAFL),该功能将基于基于地面真实和预测段蒙版的持久性图表之间的拓扑结构术语与拓扑结构术语结合在一起。通过实施与地面真理相同的拓扑结构,拓扑的约束可以有效地解决拓扑结构,而焦点损失可以解决阶级失衡。我们首先是从地面真理和预测的分割掩模的过滤的立方复合物中构造持久图。随后,我们利用sindhorn-knopp算法来确定两个持久图之间的最佳运输计划。最终的运输计划最小化了将质量从一个分布到另一个分布的运输成本,并在两个持久图中的点之间提供了映射。然后,我们根据该旅行计划计算沃斯堡的距离,以测量地面真相和预测的面具之间的拓扑差异。我们通过训练3D U-NET与MICCAI脑肿瘤分割(BRATS)CHALLENE验证数据集来评估我们的方法,该数据需要准确地分割3D MRI扫描,从而整合各种方式,以精确鉴定和跟踪恶性脑肿瘤。然后,我们证明,通过添加拓扑约束作为惩罚项,通过将焦点损失正规化来提高分段性能的质量。
附近草图通常以 1 英寸 = 1,000 英尺的比例绘制,但如果没有这种地图,也可以接受 1:24,000 比例的美国地质调查局地图。附近草图应描绘所有相邻分区的地块线和名称、拟议分区地块约半英里范围内街道、公路、天然溪流和湿地的位置;约半英里范围内所有相邻公用设施系统的位置,流经拟议分区的溪流的自然排水路线,并在合理的情况下标明支流区域的边界。根据本小节提交的所有地图都应明确标明包含地图主题土地的区域、乡镇和范围。
摘要。分析建筑模型的可用面积、建筑安全性或能源分析需要空间和相关对象的功能分类数据。自动化空间功能分类有助于减少输入模型准备工作量和错误。现有的空间功能分类器使用空间特征向量或空间连通性图作为输入。深度学习 (DL) 图像分割方法在空间功能分类中的应用尚未被研究。作为解决这一差距的第一步,我们提出了一个数据集 SFS-A68,它由 68 个公寓楼空间布局的数字 3D 模型生成的输入和地面真实图像组成。该数据集适用于开发用于空间功能分割的 DL 模型。我们使用该数据集训练和评估基于迁移学习和从头开始训练的实验空间功能分割网络。测试结果证实了 DL 图像分割对空间功能分类的适用性。
联合学习允许分布式的医疗机构可以协作学习具有隐私保护的共享预测模型。在临床部署时,接受联邦学习的模型仍会在联邦外面完全看不见的霍斯群岛上使用时仍会遭受性能下降。在本文中,我们指出并解决了联合域的生成(FedDG)的新型问题设置,该设置旨在从多个分布式源域中学习联合模型,以便它可以直接概括为看不见的目标域。我们提出了一种新颖的方法,在持续频率空间(ELCF)中称为情节学习,通过启动每个客户端在数据分散率的挑战性约束下利用多源数据分布来利用多源数据分布。我们的方法通过有效的连续频率空间插值机制以隐私保护方式传输客户之间的分布信息。通过转移的多源分布,我们进一步仔细设计了面向边界的情节学习范式,以将本地学习暴露于域分布变化,尤其是在医学图像分割场景中尤其满足模型概括的挑战。在两个医学图像分割任务上,我们的方法的有效性优于最先进的表现和深入消融实验。可以在https://github.com/liuquande/feddg-elcfs上使用代码。
近年来,已经提出了连续的潜在空间(CLS)和DISCRETE潜在空间(DLS)深度学习模型,以改善医学图像分析。但是,这些模型遇到了不同的挑战。cls模型捕获了复杂的细节,但由于其强调低级特征,因此在结构表示和易男性方面通常缺乏解释性。尤其是,DLS模型提供了可解释性,鲁棒性以及由于其结构性潜在空间而捕获粗粒度信息的能力。但是,DLS模型在捕获细粒细节方面的功效有限。为了确定DLS和CLS模型的局限性,我们采用了Synergynet,这是一种新型的瓶颈体系结构,旨在增强现有的编码器 - 核编码器分割框架。Synergynet无缝地将离散和连续的表示形式整合到利用互补信息中,并成功保留了细学的表示的细节。我们对多器官分割和CAR-DIAC数据集进行的实验实验表明,SynergyNet的表现优于包括Transunet:Transunet:DICE评分提高2.16%的其他最新方法,而Hausdorff分别分别提高了11.13%。在评估皮肤病变和脑肿瘤分割数据集时,我们观察到皮肤病变分割的交互分数的1.71%的重新提高,脑肿瘤分割的增长率为8.58%。我们的创新方法为增强医学图像分析关键领域中深度学习模型的整体性能和能力铺平了道路。
结合了标准和深度可分离的扩张卷积,降低了复杂性,同时保持了高度的准确性。它有四种配置,从强大的194万参数Twinlitenet +大到超轻量级34K参数Twinlitenet + Nano。值得注意的是,TwinliteNet +大的达到了92.9%的MIOU(平均交叉路口),用于驱动面积分割,而车道分割的34.2%IOU(与联合的交集)为34.2%。 这些结果实现了能力的性能,超过了当前的最新模型,而仅需少11倍的浮点操作(FLOP)才能计算。 在各种嵌入式设备上进行了严格评估,TwinliteNet +表现出了有希望的LASCENCE和功率效率,从而强调了其对现实世界自动驾驶汽车应用的潜力。 该代码可在https://github.com/chequanghuy/twinlitenetplus上找到。达到了92.9%的MIOU(平均交叉路口),用于驱动面积分割,而车道分割的34.2%IOU(与联合的交集)为34.2%。这些结果实现了能力的性能,超过了当前的最新模型,而仅需少11倍的浮点操作(FLOP)才能计算。在各种嵌入式设备上进行了严格评估,TwinliteNet +表现出了有希望的LASCENCE和功率效率,从而强调了其对现实世界自动驾驶汽车应用的潜力。该代码可在https://github.com/chequanghuy/twinlitenetplus上找到。
水下图像细分对于诸如水下探索,海洋环境监测和资源开发等任务至关重要。尽管如此,鉴于水下环境的复杂性和可变性,改善模型准确性仍然是水下图像分割任务中的关键挑战。为了解决这些问题,本研究提出了基于标准Segformer模型的水下图像的高性能语义分割方法。首先,Segformer中的混合变压器主链被Swin Transformer替换,以增强特征提取并促进对全局上下文信息的有效获取。接下来,在骨干的下采样阶段和解码器中引入了有效的多尺度注意(EMA)机制,以更好地捕获多尺度特征,从而进一步提高了细分精度。此外,将特征金字塔网络(FPN)结构合并到解码器中,以在多个分辨率下组合特征图,从而使模型可以有效地集成上下文信息,从而在复杂的水下环境中增强了鲁棒性。对SUIM水下图像数据集进行测试表明,拟议的模型在多个指标上达到了高性能:联合(MIOU)的平均相交(MIOU)为77.00%,平均召回(MRECALL)为85.04%,平均精度(Mprecision)为89.03%,为89.03%,F1Score(MF1Score(Mf1score)为86.63%)。与标准Segformer相比,MIOU的提高3.73%,MRECALL为1.98%,Mprecision的3.38%和MF1Score的2.44%的提高,参数增加了989万。结果表明,所提出的方法通过最小的其他计算实现了出色的分割精度,从而显示了水下图像分割中的高性能。
摘要:通用的很少的语义分割(GFSS)目标在学习一组基本类别的分割后,使用一些带注释的示例将新颖对象类别进行分割。典型的GFSS培训涉及两个阶段 - 基类学习,然后是新颖的课程和学习。尽管现有方法表现出了希望,但在新颖的班级数量显着时,它们通常会挣扎。大多数当前方法都冻结了编码器主链以保持基类精度;但是,冻结编码器骨架可以严重阻碍新班级中新型信息的同化。为了应对这一挑战,我们建议在GFSS中使用增量学习策略来学习编码器骨干和新型类原型。受到低级适应技术(LORA)最近成功的启发,我们通过新颖的重量分解方法向GFSS编码器主链引入了Increthorth学习。我们新提出的等级自适应权重合并策略对在编码器主链各个层中吸收的新颖性不同。在我们的工作中,我们还将增量学习策略介绍给新型类别的类原型学习。我们在Pascal-5 I和Coco-20 I数据库上进行了广泛的实验,展示了增量学习的有效性,尤其是当新颖的类人数超过基础类别时。使用我们提出的基于权重分解的增量学习(WFIL)方法,以概括性的语义分段建立了一组新的最先进的精度值。
摘要:数据增强对于像素的注释任务(如语义分割)至关重要,在语义分段中,标签会重大努力和大量劳动。传统方法,涉及简单的转换,例如旋转和翻转,创建新图像,但通常沿关键语义维度缺乏多样性,并且无法改变高级语义属性。为了解决这个问题,生成模型已成为通过生成合成图像来增强数据的有效解决方案。可控的生成模型通过使用提示和来自原始图像的视觉引用为语义分割任务提供数据增强方法。但是,这些模型在生成合成图像时面临挑战,这些图像由于难以创建有效的提示和视觉参考而准确地反映原始图像的内容和结构。在这项工作中,我们引入了使用可控差异模型进行语义分割的有效数据增强管道。我们提出的方法包括使用类别附加和视觉事先融合的类别添加的有效及时生成,以增强对真实图像中标记的类的关注,从而使管道能够生成精确数量的增强图像,同时保留分割标记的类的结构。此外,我们在合成和原始图像合并时实现了平衡算法的类平衡算法。对Pascal VOC数据集的评估,我们的管道证明了其在生成语义分割的高质量合成图像方面的有效性。我们的代码可在此HTTPS URL上找到。
典型的图像处理任务是识别两个相邻区域之间边界(强度变化)。从经典上讲,边缘检测方法依赖于不同类型的滤膜对图像梯度的计算。因此,所有经典算法都需要至少O(2 n)的计算复杂性,因为每个像素都需要处理(Yao,Wang,Liao,Chen和Suter,2017)。已经提出了一种量子算法,该算法应该与现有边缘提取算法相比提供指数加速(Zhang,lu和gao。2015)。但是,该算法包括一个复制操作和一个量子黑框,用于同时计算所有像素的梯度。对于这两个步骤,目前都没有有效的实现。提出了一种高效的量子算法,称为量子Hadamard Edge检测,以找到边界(Yao,Wang,
