Loading...
机构名称:
¥ 1.0

1,2技术科学学院 - Sebha 3高级技术工程研究所 - Sebha摘要:随着人工智能(AI)继续推动各个领域的进步,AI模型中对解释性的需求变得越来越重要。许多最先进的机器学习模型,尤其是深度学习体系结构,都是“黑匣子”,使他们的决策过程难以解释。可解释的AI(XAI)旨在提高模型透明度,确保AI驱动的决策是可以理解的,可信赖的,并且与道德和监管标准保持一致。本文探讨了AI解释性的不同方法,包括本质上可解释的模型,例如决策树和逻辑回归,以及诸如Shap(Shapley添加说明)和Lime(局部可解释的模型 - 敏捷的解释)之类的事后方法。此外,我们讨论了解释性的挑战,包括准确性和可解释性之间的权衡,可伸缩性问题以及特定领域的要求。本文还重点介绍了XAI在医疗保健,金融和自治系统中的现实应用。最后,我们研究了未来的研究方向,强调了混合模型,因果解释性和人类协作。通过培养更容易解释的AI系统,我们可以增强数据科学应用程序中的信任,公平性和问责制。关键字:可解释的AI(XAI),可解释性,机器学习,黑盒模型,模型透明度,摇摆,石灰,道德AI,可信赖的AI,事后解释性,偏置缓解性,调节性,监管合规性,人类 - ai相互作用。

13 I 2025年1月https://doi.org/10.22214/ ...

13 I 2025年1月https://doi.org/10.22214/ ...PDF文件第1页

13 I 2025年1月https://doi.org/10.22214/ ...PDF文件第2页

13 I 2025年1月https://doi.org/10.22214/ ...PDF文件第3页

13 I 2025年1月https://doi.org/10.22214/ ...PDF文件第4页

13 I 2025年1月https://doi.org/10.22214/ ...PDF文件第5页

相关文件推荐