Loading...
机构名称:
¥ 1.0

人工智能技术在医学和自动驾驶汽车等安全关键领域的应用引发了人们对其可信度和可靠性的质疑。不确定性量化是提高深度学习信任度和可靠性的一种经过深入研究的途径。不确定性衡量算法对其预测的不信任程度,这一信息对于使用基于机器学习的决策支持的从业者非常重要。存在多种可以为机器学习预测生成不确定性估计的技术;然而,很少有技术试图解释为什么预测中存在不确定性。可解释人工智能 (XAI) 是一个总称,涵盖为机器学习预测提供一定程度透明度的技术。这可以包括有关哪些输入有助于或损害算法预测的信息。这项工作侧重于将现有的 XAI 技术应用于深度神经网络,以了解特征如何影响认知不确定性。认知不确定性是在给定神经网络训练所基于的训练数据分布的情况下对预测的置信度的度量。在这项工作中,我们应用共同特征归因 XAI 技术来有效地推断深度神经网络中认知不确定性的解释。

使用可解释的人工智能来衡量特征对不确定性的贡献

使用可解释的人工智能来衡量特征对不确定性的贡献PDF文件第1页

使用可解释的人工智能来衡量特征对不确定性的贡献PDF文件第2页

使用可解释的人工智能来衡量特征对不确定性的贡献PDF文件第3页

使用可解释的人工智能来衡量特征对不确定性的贡献PDF文件第4页

使用可解释的人工智能来衡量特征对不确定性的贡献PDF文件第5页

相关文件推荐

2020 年
¥10.0
2023 年
¥1.0
2023 年
¥1.0