近年来,已经提出了连续的潜在空间(CLS)和DISCRETE潜在空间(DLS)深度学习模型,以改善医学图像分析。但是,这些模型遇到了不同的挑战。cls模型捕获了复杂的细节,但由于其强调低级特征,因此在结构表示和易男性方面通常缺乏解释性。尤其是,DLS模型提供了可解释性,鲁棒性以及由于其结构性潜在空间而捕获粗粒度信息的能力。但是,DLS模型在捕获细粒细节方面的功效有限。为了确定DLS和CLS模型的局限性,我们采用了Synergynet,这是一种新型的瓶颈体系结构,旨在增强现有的编码器 - 核编码器分割框架。Synergynet无缝地将离散和连续的表示形式整合到利用互补信息中,并成功保留了细学的表示的细节。我们对多器官分割和CAR-DIAC数据集进行的实验实验表明,SynergyNet的表现优于包括Transunet:Transunet:DICE评分提高2.16%的其他最新方法,而Hausdorff分别分别提高了11.13%。在评估皮肤病变和脑肿瘤分割数据集时,我们观察到皮肤病变分割的交互分数的1.71%的重新提高,脑肿瘤分割的增长率为8.58%。我们的创新方法为增强医学图像分析关键领域中深度学习模型的整体性能和能力铺平了道路。
尽管磁共振成像(MRI)对脑肿瘤分割和发现非常有帮助,但它在临床实践中缺乏某些方式。作为一种态度,预测绩效的退化是不可避免的。根据当前的实现,在模态特征的训练过程中,不同的模式被认为是独立的,彼此之间是独立的,但是它们是互补的。在本文中,考虑到不同方式对各种肿瘤区域的敏感性,我们提出了一种意识到类别的G组大量学习框架(称为GSS),以弥补本性模态模态提取阶段的信息。确切地说,在每个预测类别中,所有模态的预测构成了一个组,其中选择了最出色的灵敏度的预测作为组领导者。小组领导者与成员之间的合作努力以高的一致性和确定性为基础。作为我们的次要贡献,我们引入了一个随机面具,以减少可能的偏见。GSS采用标准培训策略而无需具体的建筑选择,因此可以轻松地插入现有的全模式内脑肿瘤分段中。在BRATS2020,BRATS2018和BRATS2015数据集上进行了明显的,广泛的实验表明,GSS可以平均证明现有的SOTA算法的性能平均为1.27-3.20%。该代码在https://github.com/qysgithubopen/gss上发布。
越来越多的公共数据集显示出对自动器官细分和图检测的显着影响。但是,由于每个数据集的大小和部分标记的问题,以及对各种肿瘤的有限侵入,因此所得的模型通常仅限于细分特定的器官/肿瘤,以及ig- ignore ignore ignore的解剖结构的语义,也可以将其扩展到新颖的Domains。为了解决这些问题,我们提出了剪辑驱动的通用模型,该模型结合了从对比的语言图像预训练(剪辑)到细分模型中学到的文本嵌入。这个基于夹子的标签编码捕获了解剖学关系,使模型能够学习结构化特征嵌入和段25个器官和6种类型的肿瘤。提出的模型是从14个数据集的组装中开发的,使用总共3,410张CT扫描进行培训,然后对3个附加数据集进行了6,162个外部CT扫描进行评估。我们首先在医疗细分十项全能(MSD)公共排行榜上排名第一,并在颅库(BTCV)之外实现最先进的结果。此外,与数据集特异性模型相比,大学模型在计算上更有效(更快6英制),从不同站点进行CT扫描更好,并且在新任务上表现出更强的传输学习绩效。
摘要。多模式图像的使用通常可以改善分段。但是,由于临床限制,完整的多模式数据集通常不可用。为了解决这个问题,我们提出了一个新颖的mul-timodal分割框架,该框架可通过使用利益区域(ROI)细心的模态完成,可以使缺少模态固定。我们使用ROI专注的跳过连接专注于与分割相关的收件,以及结合肿瘤ROI的关注点和分割概率图的关节歧视者,以学习与分割与分割相关的共享潜在表示。我们的方法在脑部分割挑战数据集中得到了285例,该数据集的全部肿瘤,肿瘤核心和增强肿瘤的三个区域。它也是在缺血性卒中病变分割挑战数据集上的带有28例梗塞病变的阀门。我们的方法在强大的多模式分割中优于最先进的方法,分别为三种类型的脑肿瘤区域的平均骰子分别为84.15%,75.59%和54.90%,中风病变的平均骰子为48.29%。我们的方法可以改善需要多模式图像的临床工作流程。
解释摄像机数据是自主行动系统(例如自动驾驶汽车)的关键。在现实世界环境中运行的视觉系统必须能够解释其周围环境,并需要能够处理新型情况。本文解决了开放世界的分段,即解释训练过程中未见对象的图像数据的变体。我们提出了一种新的方法,该方法可以执行确定性封闭世界的语义分割,同时可以识别新类别,而无需任何适当的培训数据。我们的方法1另外,为图像中的每个新发现的类与已知类别提供了相似性度量,这在下游任务(例如计划或映射)中可能是有用的信息。通过广泛的实验,我们表明我们的模型在已知的训练数据以及异常分割的类别上实现了最新的结果,并且可以区分不同的未知类别。
正电子发射断层扫描(PET)和计算的刻录术(CT)通常共同用于检测肿瘤。PET/CT分割模型可以自动化肿瘤的描述,但是,当前的多模式模型不能完全阐明每种模式中的互补信息,因为它们要么串联PET和CT数据,要么在决策水平上融合它们。为了对抗这一点,我们提出了镜像u-net,它通过将多模式表示形式分配到模态特异性的解码器分支和辅助多模态解码器中,以多模态化的方式代替了传统的融合方法。在这些分支上,镜像u-net标志着一个针对每种模式量身定制的任务,以增强单峰特征,同时保留共享表示中的多模式特征。与以前的方法相比使用了其他方法或多任务学习,Mirror U-net将两个范式结合在一个统一的框架中。我们探索各种任务组合,并检查在模型中共享的哪些参数。我们在Autopet PET/CT和多模式MSD Braintumor数据集上评估了Mirror U-NET,证明了其在多模式分段中的有效性并在两个数据集中实现了先进的性能。代码:https://github.com/zrrrrr1997/ autopet_challenge_mirrorunet
参考图像分割(RIS)的目的是通过相应的静脉语言表达式精确地分段图像中的对象,但依赖于成本密集的掩码注释。弱监督的RIS因此从图像文本对学习到像素级语义,这是用于分割细粒面罩的挑战。自然而然地提高了分割精度,是用图像分割模型SAM赋予弱监督的RI。尽管如此,我们观察到,简单地整合SAM会产生有限的收益,甚至由于不可避免的噪声而导致性能回归,而过度关注对象部分的挑战和挑战。在本文中,我们提出了一个创新的框架,即P PPT(PPT),与拟议的多源课程学习策略合并,以解决这些挑战。具体来说,PPT的核心是一个点发生器,它不仅可以利用Clip的文本图像对准能力和SAM强大的掩膜生成能力,而且还产生了负点提示,以固有,有效地解决嘈杂和过度的焦点问题。在适当的情况下,我们引入了一种以对象为中心图像的课程学习策略,以帮助PPT逐渐从更简单但精确的语义一致性中学习到更复杂的RIS。实验表明,我们的PPT在MIOU上显着胜过弱监督的技术,分别为11.34%,14.14%和6.97%,分别为6.97%。
扩散模型代表文本到图像生成中的新范式。除了从文本提示中生成高质量的图像之外,诸如稳定扩散之类的模型已成功扩展到了共同生成的分段伪遮罩。但是,当前的敏感主要依赖于提取与用于图像合成的及时单词相关的关注。这种方法限制了从文本提示中未包含的单词代币中得出的分割掩码的产生。在这项工作中,我们介绍了开放式摄影注意力图(OVAM) - 用于文本到图像扩散模型的无训练方法,可为任何单词生成注意力图。此外,我们提出了一个基于OVAM的轻巧优化过程,用于查找具有单个注释的对象类的准确注意图。
摘要。胸肌分割是乳腺磁共振成像(MRI)的各种计算机辅助应用中的关键步骤。由于胸部和乳房区域之间的伪影和同质性,胸肌边界估计并不是一项琐碎的任务。在本文中,提出了一种基于深度学习的全自动分割方法,以准确描述轴向乳房MR图像中的胸肌边界。提出的方法涉及两个主要步骤:胸肌分割和边界估计。对于胸肌分割,基于U-NET结构的模型用于从输入图像中分离胸肌。接下来,通过候选点检测和轮廓分割来估计胸肌边界。使用两个Real-World数据集,我们自己的私人数据集和一个公开可用的数据集对所提出的方法进行了定量评估。第一个数据集包括12名患者乳房MR图像,第二个数据集由80名患者乳房MR图像组成。所提出的方法在第一个数据集中达到了95%的骰子得分,第二个数据集的骰子得分为89%。在大规模定量乳房MR图像上评估该方法的高分割性能表达了其在将来的乳腺癌临床应用中的潜在适用性。