Loading...
机构名称:
¥ 1.0

目标:本研究旨在探索多中心数据异质性对深度学习脑转移瘤 (BM) 自动分割性能的影响,并评估增量迁移学习技术,即不遗忘学习 (LWF),在不共享原始数据的情况下提高模型通用性的有效性。材料和方法:使用了来自埃尔朗根大学医院 (UKER)、苏黎世大学医院 (USZ)、斯坦福大学、加州大学旧金山分校、纽约大学 (NYU) 和 BraTS Challenge 2023 的总共六个 BM 数据集。首先,分别针对单中心专项训练和混合多中心训练建立 DeepMedic 网络的 BM 自动分割性能。随后评估了隐私保护双边协作,其中将预训练模型共享到另一个中心以使用迁移学习 (TL) 进行进一步训练(带或不带 LWF)。结果:对于单中心训练,在各自的单中心测试数据上,BM 检测的平均 F1 分数范围从 0.625(NYU)到 0.876(UKER)。混合多中心训练显著提高了斯坦福大学和纽约大学的 F1 分数,而其他中心的提高可以忽略不计。当将 UKER 预训练模型应用于 USZ 时,在组合 UKER 和 USZ 测试数据上,LWF 获得的平均 F1 分数 (0.839) 高于朴素 TL (0.570) 和单中心训练 (0.688)。朴素 TL 提高了灵敏度和轮廓绘制精度,但损害了精度。相反,LWF 表现出值得称赞的灵敏度、精度和轮廓绘制精度。当应用于斯坦福大学时,观察到了类似的性能。结论:数据异质性(例如,不同中心的转移密度、空间分布和图像空间分辨率的变化)导致 BM 自动分割的性能不同,对模型的通用性提出了挑战。LWF 是一种很有前途的点对点隐私保护模型训练方法。

放射治疗和肿瘤学

放射治疗和肿瘤学PDF文件第1页

放射治疗和肿瘤学PDF文件第2页

放射治疗和肿瘤学PDF文件第3页

放射治疗和肿瘤学PDF文件第4页

放射治疗和肿瘤学PDF文件第5页

相关文件推荐

2025 年
¥3.0
2024 年
¥5.0
2024 年
¥8.0