Loading...
机构名称:
¥ 2.0

卷积神经网络(CNN)在几十年前就无法想象的表演,这要归功于采用了数百层和近数十亿个可训练的参数的非常大的模型。然而,解释他们的决策是很不困难的,因为它们是高度非线性的,并且过度参数化。此外,对于现实生活中的应用,如果模型利用数据的伪造相关性来预测预测,则最终用户将怀疑该决定的有效性。尤其是,在医学或关键系统等高风险场景中,ML必须保证使用正确的功能来计算预测并防止伪造的关联。因此,近年来,可解释的人工智能(XAI)研究领域一直在不断发展,以了解黑盒模型中的决策机制。在本文中,我们关注事后解释方法。值得注意的是,我们对反事实解释的不断增长分支(CE)[63]。ce旨在创建输入样本的最小但有意义的扰动,以更改固定预告片模型给出的原始决定。尽管CE和对抗性示例之间的观点具有一些相似之处[44],但CE的扰动必须是可以理解和合理的。相比之下,对抗性示例[37]包含与人眼无法区分的高频噪声。总体而言,CE目标四个目标:(i)解释必须使用(ii)稀疏修改,即具有最小扰动的实例。此外,(iii)解释必须是现实的,并且可以通过

反事实解释的扩散模型

反事实解释的扩散模型PDF文件第1页

反事实解释的扩散模型PDF文件第2页

反事实解释的扩散模型PDF文件第3页

反事实解释的扩散模型PDF文件第4页

反事实解释的扩散模型PDF文件第5页

相关文件推荐

2024 年
¥6.0
2024 年
¥1.0
2021 年
¥1.0
2020 年
¥10.0
2025 年
¥1.0
2024 年
¥1.0
2024 年
¥5.0
2024 年
¥1.0
2024 年
¥1.0
2022 年
¥1.0
2024 年
¥1.0
2024 年
¥5.0
2019 年
¥1.0
2023 年
¥2.0
2024 年
¥1.0
2021 年
¥1.0
2024 年
¥1.0
2024 年
¥3.0
2022 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2023 年
¥1.0