Loading...
机构名称:
¥ 1.0

事实证明,人工智能 (AI) 能够有效地支持决策过程 [1],尤其是深度学习技术已经取得了最先进的性能 [2]。尽管在多个应用中取得了令人印象深刻的预测精度,但仍然需要解释所提出的学习模型的决策。因此,可解释人工智能 (XAI) 引起了科学界越来越多的兴趣 [3、4、5],因为深度神经网络等模型的复杂性使得用户无法理解和验证决策过程。XAI 旨在深入了解这些系统的行为和过程,确保算法的公平性,识别训练数据中的任何潜在偏差,并使复杂的 AI 模型对人类更加透明和易于理解 [5]。在有关 XAI 的文献越来越多的情况下,我们实验室正致力于三个问题。第一个问题涉及处理时间序列 (TS) 数据的深度学习 (DL) 模型的可解释性。事实上,存储和注册数据的能力不断提高,增加了时间数据集的数量,提高了对 TS 分类模型的关注,并提出了解释其决策的必要性。在此背景下,我们介绍了三种 XAI 方法在现实世界中对远程信息数据进行异常检测的多模态任务中的应用和评估。我们应对了挑战

让人工智能在多模式和医疗保健场景中值得信赖

让人工智能在多模式和医疗保健场景中值得信赖PDF文件第1页

让人工智能在多模式和医疗保健场景中值得信赖PDF文件第2页

让人工智能在多模式和医疗保健场景中值得信赖PDF文件第3页

让人工智能在多模式和医疗保健场景中值得信赖PDF文件第4页

让人工智能在多模式和医疗保健场景中值得信赖PDF文件第5页

相关文件推荐