Loading...
机构名称:
¥ 1.0

2,Lindenwood University https://orcid.org/0000-0002-0578-6052摘要:深神经网络(DNN)的可解释性和解释性在人工智能(AI)中至关重要,尤其是应用于医疗保健,财务,财务,财务,自然驾驶和自动驾驶和自动驾驶。这项研究的需求源于AI逐渐融合到关键领域,在这些领域中,透明,信任和道德决策至关重要。本文探讨了建筑设计选择对DNN解释性的影响,重点介绍了不同的建筑元素(例如层类型,网络深度,连接模式和注意机制)如何影响模型透明度。从方法论上讲,该研究对案例研究和实验结果进行了全面综述,以分析DNN中的性能与可解释性之间的平衡。它检查了现实世界中的应用程序,以证明医疗保健,金融和自动驾驶等领域的可解释性重要性。该研究还综述了实用工具,例如局部可解释的模型不合源说明(LIME)和Shapley添加说明(SHAP),以评估它们在增强模型透明度方面的有效性。结果强调了解释性有助于更好的决策,问责制和遵守监管标准。例如,在环境监测中使用Shap有助于政策制定者了解空气质量的关键动力,从而导致明智的干预措施。在教育中,石灰通过强调影响学生绩效的因素来帮助教育者个性化学习。研究结果还表明,结合注意机制和混合模型体系结构可以显着提高可解释性,而不会损害性能。关键字:解释性,解释性,深神经网络,AI透明度

导航AI

导航AIPDF文件第1页

导航AIPDF文件第2页

导航AIPDF文件第3页

导航AIPDF文件第4页

导航AIPDF文件第5页

相关文件推荐

2024 年
¥1.0
2024 年

AI

¥2.0
2024 年
¥1.0
2023 年
¥1.0
2025 年

AI

¥1.0
2025 年
¥1.0
2024 年
¥4.0
2024 年

AI

¥3.0
2023 年
¥1.0
2024 年
¥1.0
2025 年

AI

¥1.0
2024 年
¥2.0
2024 年
¥3.0
2020 年
¥4.0
2024 年
¥3.0
2025 年
¥1.0
2024 年
¥1.0
1900 年
¥2.0
2024 年
¥1.0
2025 年
¥1.0
1900 年
¥6.0
2023 年
¥1.0
2024 年
¥7.0
2024 年
¥1.0
2025 年
¥2.0
2025 年
¥3.0
2025 年
¥1.0
2025 年
¥5.0
2024 年
¥1.0