Loading...
机构名称:
¥ 6.0

摘要 近年来人们对人工智能 (AI) 的热情主要归功于深度学习的进步。深度学习方法非常准确,但也不够透明,这限制了它们在安全关键应用中的潜在用途。为了获得信任和问责,机器学习算法的设计者和操作者必须能够向用户、监管者和公民解释算法的内部工作原理、结果和失败的原因。本文的独创性在于结合可解释性的技术、法律和经济方面,开发一个框架来定义给定上下文中“正确”的可解释性水平。我们提出了三个逻辑步骤:首先,定义主要的背景因素,例如解释的受众是谁、操作背景、系统可能造​​成的危害程度以及法律/监管框架。此步骤将有助于描述解释的操作和法律需求,以及相应的社会效益。第二,检查可用的技术工具,包括事后方法(输入扰动、显着图......)和混合AI方法。第三,作为前两个步骤的功能,选择正确的全局和局部解释输出级别,同时考虑所涉及的成本。我们确定了七种成本,并强调只有当总社会效益超过成本时,解释才具有社会用途。

灵活且针对特定情境的 AI 可解释性

灵活且针对特定情境的 AI 可解释性PDF文件第1页

灵活且针对特定情境的 AI 可解释性PDF文件第2页

灵活且针对特定情境的 AI 可解释性PDF文件第3页

灵活且针对特定情境的 AI 可解释性PDF文件第4页

灵活且针对特定情境的 AI 可解释性PDF文件第5页

相关文件推荐

2022 年
¥1.0
2024 年
¥1.0
2024 年
¥4.0
2023 年
¥1.0