工程学院NAVSAHYADRI小组,A/P Naigoan Tal:Bohr Dist。:浦那平码:412213摘要:经常讨论可解释的人工智能,与深度学习有关,并在脂肪中起重要作用 - 公平,问责制和透明度 - ML模型。XAI对于想要在实施AI时建立信任的组织很有用。XAI可以帮助他们了解AI模型的行为,从而帮助找到诸如AI偏见之类的潜在问题。xai反驳了机器学习的“黑匣子”趋势,即使是AI的设计师也无法解释为什么它做出了特定的决定。XAI帮助人类用户了解AI和机器学习(ML)算法背后的推理以提高其信任。AI中使用的机器学习(ML)算法可以归类为“ White-Box”或“ Black-Box”。 白色框模型提供了域专家可以理解的结果。 另一方面, Black-Box模型也很难解释,即使域专家也几乎无法理解。 XAI算法遵循透明度,解释性和解释性的三个原则。AI中使用的机器学习(ML)算法可以归类为“ White-Box”或“ Black-Box”。白色框模型提供了域专家可以理解的结果。Black-Box模型也很难解释,即使域专家也几乎无法理解。XAI算法遵循透明度,解释性和解释性的三个原则。
主要关键词