从磁共振图像(MRI)中自动分割脑肿瘤是计算机视觉中具有挑战性的任务之一。许多建议研究在图像分割中使用深神经网络(DNN),因为它们在脑肿瘤图像的自动分割方面具有高性能。由于梯度扩散问题和复杂性,通常需要大量时间和额外的计算能力来训练更深的神经网络。在本文中,我们提出了一种自动技术,该技术根据深度残留学习网络(RESNET)来解决DNN的梯度问题。 重新连接可以实现更准确性,并且可以使训练过程与等效DNN相比更快。 为了实现此增强,重新连接添加了与卷积神经网络层平行的捷径跳过连接。 模拟示例已在Dataset Brats 2015上进行,以验证所提出的技术的优越性。 结果验证了所提出的技术分别为完整,核心和增强区域的改善精度分别为83%,90%和85%。 此外,它的平均计算时间(3倍)比其他DNN技术快。在本文中,我们提出了一种自动技术,该技术根据深度残留学习网络(RESNET)来解决DNN的梯度问题。重新连接可以实现更准确性,并且可以使训练过程与等效DNN相比更快。为了实现此增强,重新连接添加了与卷积神经网络层平行的捷径跳过连接。模拟示例已在Dataset Brats 2015上进行,以验证所提出的技术的优越性。结果验证了所提出的技术分别为完整,核心和增强区域的改善精度分别为83%,90%和85%。此外,它的平均计算时间(3倍)比其他DNN技术快。
歧视方法试图提取区分特征,然后是分类器以进行分类[3]。例如,Dandil等。[4]使用基于图像强度特征的空间模糊c均值(FCM)分类器,以达到0.91的精度,0.91灵敏度的灵敏度和0.95的敏感性对于“ WT”段。Tustison等。[5]研究了不同的特征,包括强度,几何和不对称特征,提取了多种MRI模态。基于与不对称相关的特征的随机森林分类器在Brats 2013数据库[6]中获得了最佳性能[6],即“ WT”,“ TC”,“ TC”和“ ET”组件的DSCS为0.87、0.78和0.74。然而,歧视方法依赖于提取特征的质量,这可能并不能很好地代表肿瘤分割问题。
对MRI的增强肿瘤或病变的分割对于在许多临床情况下检测新疾病活性很重要。 然而,准确的分割需要在注射对比剂(例如gadolinium)的患者后,将医学图像(例如,T1后对比度MRI)包括在内,这一过程不再被认为是安全的。 尽管在过去几年中已经建立了许多模态分割网络,但在增强病理分割的背景下,它们取得了有限的成功。 在这项工作中,我们提出了一种新颖的o net,这是一种新颖的对抗知识蒸馏(KD)技术,因此,通过访问所有MRI序列的预训练的教师分割网络,通过层次的对抗性训练,通过层次训练来教授学生网络,以更好地克服在重要的图像时呈现出至关重要的图像时会出现的大型域移动。 尤其是,当无法获得对比后成像时,我们将HAD-NET应用于增强肿瘤分割的具有挑战性的任务。 The proposed network is trained and tested on the BraTS 2019 brain tumour segmentation challenge dataset, where it achieves performance improvements in the ranges of 16% - 26% over (a) recent modality-agnostic segmentation methods ( U-HeMIS , U-HVED ), (b) KD-Net adapted to this problem, (c) the pre-trained student network and (d) a non-hierarchical version of the network ( AD-NET),就增强肿瘤(ET)的骰子得分而言。 该网络还显示出肿瘤核心(TC)骰子得分的改善。对MRI的增强肿瘤或病变的分割对于在许多临床情况下检测新疾病活性很重要。然而,准确的分割需要在注射对比剂(例如gadolinium)的患者后,将医学图像(例如,T1后对比度MRI)包括在内,这一过程不再被认为是安全的。尽管在过去几年中已经建立了许多模态分割网络,但在增强病理分割的背景下,它们取得了有限的成功。在这项工作中,我们提出了一种新颖的o net,这是一种新颖的对抗知识蒸馏(KD)技术,因此,通过访问所有MRI序列的预训练的教师分割网络,通过层次的对抗性训练,通过层次训练来教授学生网络,以更好地克服在重要的图像时呈现出至关重要的图像时会出现的大型域移动。尤其是,当无法获得对比后成像时,我们将HAD-NET应用于增强肿瘤分割的具有挑战性的任务。The proposed network is trained and tested on the BraTS 2019 brain tumour segmentation challenge dataset, where it achieves performance improvements in the ranges of 16% - 26% over (a) recent modality-agnostic segmentation methods ( U-HeMIS , U-HVED ), (b) KD-Net adapted to this problem, (c) the pre-trained student network and (d) a non-hierarchical version of the network ( AD-NET),就增强肿瘤(ET)的骰子得分而言。该网络还显示出肿瘤核心(TC)骰子得分的改善。最后,根据不确定性量化,该网络的表现优于基线学生网络和AD-NET,以增强基于BRATS 2019不确定性挑战指标的肿瘤细分。我们的代码可公开可用:https://github.com/saveriovad/had_net关键字:知识蒸馏,对抗性,歧视者,分层,增强肿瘤,缺失顺序,对比度增强
摘要:在本研究中,我们提出了一种用于检测和分类脑肿瘤的新型增强型深度学习方法,即降低复杂度空间融合 CNN (RCSF-CNN) 方法。该方法集成了复杂度特征提取,从而提高了脑肿瘤图片特征提取的质量。为了捕获关键的检测属性,提取了图像变量,例如平均值、标准差、熵、方差、平滑度、能量、对比度和相关性。然后,RCSF-CNN 使用这些属性来检测和分类脑癌。当与离散正交斯托克韦尔变换 (DOST) 配对作为中间阶段时,所提出的方法说明了增强型深度学习方法在脑癌识别中的有效性和优越性。研究是通过 Kaggle 使用 BRATS 数据集进行的,网络在 32 个样本上进行训练,并评估了 5 个样本图片的特征。RCSF-CNN 以其高效的架构脱颖而出,其中包括空间融合以及关键的规范化步骤。类激活映射 (CAM) 的加入提高了透明度和可解释性,突出了模型的创新性。MATLAB 仿真工具用于实现,并在自由源脑肿瘤图像分割基准 (BRATS) 数据集上进行了实验研究。脑肿瘤识别的结果显示熵值为 0.008、能量值为 0.8155、对比度值为 0.354。这些熵、对比度和能量值对于脑肿瘤的检测至关重要。此外,在准确度、特异性和灵敏度方面,新技术在脑肿瘤检测中胜过早期的方法,例如传统 CNN、具有修改后的局部二元模式的深度学习和 ML 算法(例如 SVM)。实现的准确度为 98.99%,表明总正确分类水平很高。99.76% 的特异性说明了该方法能够正确识别非肿瘤区域,而 98.43% 的灵敏度则证明了其能够正确检测癌症位置。
摘要。由于样本有限、形状差异大以及肿瘤形态分布不均匀,从多模态脑 MRI 图像中进行肿瘤分割是一项具有挑战性的任务。随着深度学习的最新进展,自动医学图像分割的性能得到了显着改善。然而,模型预测在准确性和通用性方面尚未达到临床使用所需的水平。为了解决 BraTS 2023 挑战 1、2 和 3 中提出的独特问题,我们构建了一个基于 3D U-Net 模型的脑肿瘤分割优化框架。该框架融合了一系列技术,包括各种预处理和后处理技术以及迁移学习。在验证数据集上,该多模态脑肿瘤分割框架在挑战 1、2、3 上分别实现了平均病变 Dice 得分 0.79、0.72、0.74。
据神经病学专家介绍,脑肿瘤对人类健康构成严重威胁。脑肿瘤的临床识别和治疗在很大程度上依赖于准确的分割。脑肿瘤的大小、形状和位置各不相同,这使得准确的自动分割成为神经科学领域的一大障碍。U-Net 凭借其计算智能和简洁的设计,最近已成为解决医学图片分割问题的首选模型。局部接受场受限、空间信息丢失和上下文信息不足的问题仍然困扰着人工智能。卷积神经网络 (CNN) 和梅尔频谱图是这种咳嗽识别技术的基础。首先,我们在各种复杂的设置中组合语音并改进音频数据。之后,我们对数据进行预处理以确保其长度一致并从中创建梅尔频谱图。为了解决这些问题,提出了一种用于脑肿瘤分割 (BTS) 的新型模型,即智能级联 U-Net (ICU-Net)。它建立在动态卷积的基础上,使用非局部注意力机制。为了重建脑肿瘤的更详细空间信息,主要设计是两阶段级联 3DU-Net。本文的目标是确定最佳可学习参数,以最大化数据的可能性。在网络能够为 AI 收集长距离依赖关系之后,将期望最大化应用于级联网络的横向连接,使其能够更有效地利用上下文数据。最后,为了增强网络捕捉局部特征的能力,使用具有局部自适应能力的动态卷积代替级联网络的标准卷积。我们将我们的结果与其他典型方法的结果进行了比较,并利用公开的 BraTS 2019/2020 数据集进行了广泛的测试。根据实验数据,建议的方法在涉及 BTS 的任务上表现良好。肿瘤核心(TC)、完整肿瘤、增强肿瘤分割BraTS 2019/2020验证集的Dice评分分别为0.897/0.903、0.826/0.828、0.781/0.786,表明在BTS中具有较高的性能。
摘要:脑磁共振成像 (MRI) 中肿瘤区域的检测和分割在过去二十年中起着重要作用。本文提出了一种用于脑肿瘤检测的高效视觉几何组卷积神经网络架构,该架构由预处理模块、DWT 模块和分类模块以及分割模块组成。基于缩放的数据增强方法用作预处理技术,并使用 DWT 变换分解数据增强的缩放图像。根据这些分解系数构建小波特征图,并使用 EVGG-CNN 架构对其进行分类。该架构将脑图像识别为胶质瘤或健康脑图像。通过将所提出的方法应用于 BRATS 2021 和 Kaggle 数据集中的脑图像,验证了本文所述这些开发方法的有效性。从灵敏度、特异性和准确性方面分析了所提出的 EVGG-CNN 架构的性能。
主要结果:我们通过 5 倍交叉验证在 BraTS 2021 数据集上评估了我们的方法,并取得了优异的性能,Dice 相似系数 (DSC) 为 0.936、0.921 和 0.872,Hausdorff 距离的第 95 百分位数 (HD95) 分别为整个肿瘤 (WT)、肿瘤核心 (TC) 和增强肿瘤 (ET) 区域的 3.96、4.57 和 10.45,在平均 DSC 和平均 HD95 方面均优于近期最先进的方法。此外,消融实验表明,将 Transformer 融合到我们改进的 nnUnet 框架中可以提高脑肿瘤分割的性能,尤其是对于 TC 区域。此外,为了验证我们方法的泛化能力,我们进一步在 FeTS 2021 数据集上进行了实验,并在 11 个看不见的机构上取得了令人满意的分割性能,其中 WT、TC 和 ET 区域的 DSC 分别为 0.912、0.872 和 0.759,HD95 分别为 6.16、8.81 和 38.50。
本研究重点利用先进的深度学习技术对 MRI 图像进行特征检测,利用全面的脑肿瘤分割 (BraTS) 2018 数据集,其中包含 3,588 张 MRI 图像。本研究突出介绍了 You Only Look Once 版本 8 (YOLOv8) 算法的应用,该算法因其在复杂图像分析中出色的实时处理和准确性而被选中。该方法涉及详细的数据收集和精确的注释过程,采用 RoboFlow 进行高效的数据标记。该模型的训练经过精心设计,以平衡最佳学习和防止过度拟合。值得注意的是,该模型实现了 97.9% 的平均精度 (mAP),在 MRI 图像中的特征检测中表现出很高的准确性和可靠性。本文强调了 YOLOv8 在医学成像中的功效,并为医疗诊断中不断发展的人工智能领域做出了贡献。
结果:共确定了 11,727 篇候选文章,其中 12 篇文章被纳入最终分析。研究调查了包括神经胶质瘤在内的数据集中正常图像与异常图像的区分(7 篇文章)以及神经胶质瘤图像与非神经胶质瘤或正常图像的区分(5 篇文章)。单一机构数据集最常见(5 篇文章),其次是 BRATS(3 篇文章)。样本量中位数为 280 名患者。算法测试策略包括五倍交叉验证(5 篇文章)和使用同一数据集中的独家图像集进行训练和测试(7 篇文章)。神经网络是最常见的算法类型(10 篇文章)。算法的准确率范围为 0.75 到 1.00(中位数 0.96,10 篇文章)。利用 TRIPOD 标准进行报告质量评估得出的平均单个 TRIPOD 比率为 0.50(标准差 0.14,范围 0.37 至 0.85)。