收到的日期:2024年2月20日修订日期:2024年3月19日接受日期:2024年4月21日摘要:可解释的人工智能(XAI)领域是智能AI和机器学习(ML)研究和开发的关键阶段之一。缺乏透明度和问责制在某个时候已成为一个巨大的关注,因为算法更频繁地从事高风险任务,例如医学诊断,财务和司法系统。本文旨在确定XAI在发展值得信赖的ML电动机中的作用,其中强调了可解释性和透明度的必要性,以便AI系统不仅具有强大,强大的功能,而且还可提供可信和道德。我们考虑提供ML模型透明性质并探索当前研究进步的技术,并意识到行业实际应用的样子。因此,我们解决了这些问题,并建议如何在避免风险的情况下改善AI模型,同时保持良好的绩效。我们深入分析的结果揭示了XAI在AI背景下清楚地阐明人类的信任和理解中所起的至关重要作用。关键字:可解释的AI,机器学习,可解释性,透明度,值得信赖的AI,问责制。
主要关键词