本文介绍了可解释人工智能 (XAI),这是提高 ML 系统可解释性和可信度的必要解决方案。本文通过两个关键领域的案例研究探讨了 XAI 的重要性:制造业和医疗保健。第一个案例涉及预测性维护应用程序,该应用程序使用 XAI 通过梯度提升决策树预测机器故障的可能性,从而为优化生产力提供详细建议。第二个案例研究基于医疗保健部门。用于 AI 模型解释的 LIME 和 SHAP 工具增强了人们对 AI 辅助医疗诊断的糖尿病预测有效性的信任。这两个案例都证明 XAI 有助于更好地理解所展示的机器学习模型的工作原理,并符合道德决策和监管要求。因此,在本文的最后一部分,作者讨论了当前形式的 XAI 的一些缺点以及该领域的潜在进步,包括水平性和更好地融入使用 AI 的系统。这一发现支持使用 XAI 在众多行业中促进更透明、更负责任和更值得信赖的 AI 应用。
主要关键词