Loading...
机构名称:
¥ 2.0

本文借助图像分类示例研究了深度学习 (DL) 训练算法的不确定性及其对神经网络 (NN) 模型可解释性的影响。为了讨论这个问题,我们训练了两个卷积神经网络 (CNN) 并比较了它们的结果。比较有助于探索在实践中创建确定性、稳健的 DL 模型和确定性可解释人工智能 (XAI) 的可行性。本文详细描述了所有努力的成功和局限性。本文列出了所获得的确定性模型的源代码。可重复性被列为模型治理框架的开发阶段组成部分,该框架由欧盟在其 AI 卓越方法中提出。此外,可重复性是建立因果关系以解释模型结果和建立信任以应对 AI 系统应用的迅猛扩展的必要条件。本文研究了在实现可重复性的过程中必须解决的问题以及处理其中一些问题的方法。

深度学习可重复性和可解释人工智能 (XAI)

深度学习可重复性和可解释人工智能 (XAI)PDF文件第1页

深度学习可重复性和可解释人工智能 (XAI)PDF文件第2页

深度学习可重复性和可解释人工智能 (XAI)PDF文件第3页

深度学习可重复性和可解释人工智能 (XAI)PDF文件第4页

深度学习可重复性和可解释人工智能 (XAI)PDF文件第5页

相关文件推荐