Loading...
机构名称:
¥ 4.0

摘要:人工智能 (AI) 的最新进展导致了其在工业领域的广泛应用,机器学习系统在大量任务中表现出超越人类的性能。然而,这种性能的激增通常是通过增加模型复杂性来实现的,将这些系统变成“黑箱”方法,并导致它们的运行方式以及最终它们做出决策的方式存在不确定性。这种模糊性使机器学习系统难以在敏感而关键的领域采用,而这些领域的价值可能巨大,例如医疗保健。因此,近年来,人们对可解释人工智能 (XAI) 领域的科学兴趣重新燃起,该领域涉及开发解释和解释机器学习模型的新方法。本研究重点关注机器学习可解释性方法;更具体地说,我们介绍了这些方法的文献综述和分类,以及它们的编程实现的链接,希望这项调查可以为理论家和实践者提供参考。

机器学习可解释性方法回顾

机器学习可解释性方法回顾PDF文件第1页

机器学习可解释性方法回顾PDF文件第2页

机器学习可解释性方法回顾PDF文件第3页

机器学习可解释性方法回顾PDF文件第4页

机器学习可解释性方法回顾PDF文件第5页

相关文件推荐

2024 年
¥1.0
2024 年
¥33.0