摘要:奥氏体347H不锈钢提供了极端操作条件(例如高温)所需的出色的机械性能和耐腐蚀性。由于组成和过程变化而导致的微观结构的变化有望影响其特性。识别微观结构特征(例如晶界)因此成为过程微观结构 - 循环中的重要任务。应用基于卷积神经网络(CNN)的深度学习模型是一种强大的技术,可以自动以自动化方式从材料显微照片中检测特征。与微观结构分类相反,分割任务的监督CNN模型需要像素的注释标签。但是,分割任务的图像的手动标记为在合理的时间范围内以可靠且可重复的方式生成培训数据和标签的主要瓶颈。尤其是,要通过更换合金组成来更快的材料发现,需要加快微观结构表征。在这项研究中,我们试图通过利用多模式显微镜直接生成标签而不是手动标记来克服此类局限性。我们将347H不锈钢的扫描电子显微镜(SEM)作为训练数据和电子反向散射衍射(EBSD)显微照片作为晶粒边界检测作为语义分割任务的像素标签。通过考虑一组深CNN体系结构来评估我们方法的生存能力。此外,我们发现幼稚的像素分割会导致较小的间隙和预测的晶界图中缺少边界。我们证明,尽管在两种模式之间的数据收集过程中产生了仪器漂移,但该方法在使用手动标记的类似分割任务中执行了相当的性能。通过在模型训练期间合并拓扑信息,晶粒边界网络和分割性能的连通性得到改善。最后,通过对下游任务的准确计算来预测潜在的谷物形态分布,这是微观结构表征的最终感兴趣。
主要关键词