Loading...
机构名称:
¥ 1.0

数据和计算能力的不断增长使得开发具有高度预测性的机器学习模型成为可能。另一方面,考虑到对具有重大社会影响的活动可能产生的不利后果,政策制定者和监管者对人工智能应用产生了一定程度的怀疑。为了在保护社会的同时促进创新,人们开始就开发可解释的人工智能 (XAI) 方法达成共识,即能够使机器学习模型可解释并因此被理解的方法,特别是在因果发现方面。事实上,近年来,人工智能应用和产品的日益普及,促使政策制定者和监管者要求底层机器学习模型是可解释的,以便人类用户能够理解它们:例如,参见欧洲委员会 (2020) 最近的论文。这一要求在受到严格监管的经济部门(如卫生和金融)中尤为明显。根据政策要求,研究人员最近讨论了如何使机器学习模型可解释的问题。现有论文将内容分为不同的解释类别。这些方法的详细评论可以在 Guidotti 等人 (2018) 中找到。本文仅关注两种方法:全局解释和局部解释。这是因为我们的提议是局部解释和全局解释相结合的结果。虽然全局解释描述了整个模型,即哪些解释变量最能决定其预测,但对于所有统计

Shapley-Lorenz 可解释人工智能

Shapley-Lorenz 可解释人工智能PDF文件第1页

Shapley-Lorenz 可解释人工智能PDF文件第2页

Shapley-Lorenz 可解释人工智能PDF文件第3页

Shapley-Lorenz 可解释人工智能PDF文件第4页

Shapley-Lorenz 可解释人工智能PDF文件第5页