工程学院NAVSAHYADRI小组,A/P Naigoan Tal:Bohr Dist。:浦那平码:412213摘要:经常讨论可解释的人工智能,与深度学习有关,并在脂肪中起重要作用 - 公平,问责制和透明度 - ML模型。XAI对于想要在实施AI时建立信任的组织很有用。XAI可以帮助他们了解AI模型的行为,从而帮助找到诸如AI偏见之类的潜在问题。xai反驳了机器学习的“黑匣子”趋势,即使是AI的设计师也无法解释为什么它做出了特定的决定。XAI帮助人类用户了解AI和机器学习(ML)算法背后的推理以提高其信任。AI中使用的机器学习(ML)算法可以归类为“ White-Box”或“ Black-Box”。 白色框模型提供了域专家可以理解的结果。 另一方面, Black-Box模型也很难解释,即使域专家也几乎无法理解。 XAI算法遵循透明度,解释性和解释性的三个原则。AI中使用的机器学习(ML)算法可以归类为“ White-Box”或“ Black-Box”。白色框模型提供了域专家可以理解的结果。Black-Box模型也很难解释,即使域专家也几乎无法理解。XAI算法遵循透明度,解释性和解释性的三个原则。
数据和计算能力的不断增长使得开发具有高度预测性的机器学习模型成为可能。另一方面,考虑到对具有重大社会影响的活动可能产生的不利后果,政策制定者和监管者对人工智能应用产生了一定程度的怀疑。为了在保护社会的同时促进创新,人们开始就开发可解释的人工智能 (XAI) 方法达成共识,即能够使机器学习模型可解释并因此被理解的方法,特别是在因果发现方面。事实上,近年来,人工智能应用和产品的日益普及,促使政策制定者和监管者要求底层机器学习模型是可解释的,以便人类用户能够理解它们:例如,参见欧洲委员会 (2020) 最近的论文。这一要求在受到严格监管的经济部门(如卫生和金融)中尤为明显。根据政策要求,研究人员最近讨论了如何使机器学习模型可解释的问题。现有论文将内容分为不同的解释类别。这些方法的详细评论可以在 Guidotti 等人 (2018) 中找到。本文仅关注两种方法:全局解释和局部解释。这是因为我们的提议是局部解释和全局解释相结合的结果。虽然全局解释描述了整个模型,即哪些解释变量最能决定其预测,但对于所有统计
摘要随着采用可解释的AI(XAI)的采用,继续扩展,解决其隐私含义的紧迫性强大。尽管在AI隐私性和解释性方面进行了越来越多的研究,但对保护隐私模型的解释几乎没有关注。本文介绍了有关模型解释及其对策的隐私攻击的第一次彻底调查。我们对这一领域的贡献包括对研究论文的彻底分析,并通过相关的分类法进行了促进基于目标解释的隐私攻击和对策的分类。这项工作还包括对隐私泄漏原因的初步调查。最后,我们讨论了分析中发现的未解决的问题和前瞻性研究方向。这项调查旨在成为研究界的宝贵资源,并为该领域的新手提供明确的见解。为了支持正在进行的研究,我们建立了一个在线资源存储库,该存储库将通过新的和相关的发现不断更新。
随着人工智能(AI)技术的越来越多地渗透到金融领域,他们的采用提出了有关监管合规性和创新的重大挑战和机遇。本文探讨了可解释的AI(XAI)在平衡这两个方面的关键作用,尤其是在诸如欺诈检测,信用评分和算法交易之类的应用中。我们强调了XAI对金融机构的必要性,以满足要求在AI驱动决定中透明度和问责制的监管要求。讨论深入研究了这些机构所面临的复杂性,包括算法中固有的偏见,这些偏见可以损害公平性和不透明决策过程的道德意义。通过成功实施XAI实施的案例研究,我们说明了透明度如何增强消费者的信任并促进更强大的监管环境。这项考试强调了在遵守合规性授权的同时促进创新的重要性,为努力负责任地利用AI的金融机构提供了路线图。最终,我们主张将XAI集成为减轻与算法偏见相关的风险并增强金融技术的完整性的一种手段,从而促进了更公平的金融景观。
摘要 人工智能 (AI) 和机器学习 (ML) 正在彻底改变人类各个领域的活动,医学和传染病也未能幸免于其快速而指数级的增长。此外,可解释的 AI 和 ML 领域已变得尤为重要,并吸引了越来越多的关注。传染病已经开始受益于可解释的 AI/ML 模型。例如,它们已被用于或提议用于更好地理解旨在改善 2019 年冠状病毒病诊断和管理的复杂模型、抗菌素耐药性预测领域和量子疫苗算法中。尽管一些有关可解释性和可解释性二分法的问题仍需认真关注,但深入了解复杂的 AI/ML 模型如何得出预测或建议,对于正确应对本世纪传染病日益严峻的挑战变得越来越重要。
人工智能理论的不断发展,在众多学者和科研人员的不懈努力下,已经达到了前所未有的高度。在医疗领域,人工智能发挥着至关重要的作用,其强大的机器学习算法发挥着重要作用。医学影像领域的人工智能技术,可以辅助医生进行X光、CT、MRI等检查诊断,基于声学数据进行模式识别和疾病预测,为患者提供疾病类型和发展趋势的预测,以及利用人机交互技术实现智能健康管理可穿戴设备等。这些成熟的应用为医疗领域的诊断、临床决策和管理提供了极大的帮助,但医疗与人工智能的协同也面临一个迫切的挑战:如何保证决策的可靠性?其根源在于医疗场景的可问责性和结果透明性需求与人工智能的黑箱模型特性之间的冲突。本文回顾了基于可解释人工智能 (XAI) 的最新研究,重点关注视觉、音频和多模态视角的医疗实践。我们努力对这些实践进行分类和综合,旨在为未来的研究人员和医疗保健专业人员提供支持和指导。
摘要 随机泡沫训练多个模糊规则泡沫函数近似器,然后将它们组合成单个基于规则的近似器。泡沫系统在来自训练有素的神经分类器的引导随机样本上独立训练。泡沫系统将神经黑匣子转换为可解释的规则集。基于模糊规则的系统具有底层概率混合结构,可对每个输入的规则产生可解释的贝叶斯后验。规则泡沫还通过广义概率混合的条件方差来衡量其输出的不确定性。随机泡沫通过平均其吞吐量或规则结构来组合学习到的加性模糊系统。随机泡沫在其规则、规则后验和条件方差方面也是可解释的。30 个 1000 规则泡沫在 MNIST 数字数据集的随机子集上进行训练。每个这样的泡沫系统的分类准确率约为 93.5%。平均吞吐量的随机泡沫实现了 96。 80% 的准确率,而仅对其输出进行平均的随机泡沫则实现了 96.06% 的准确率。吞吐量平均的随机泡沫也略胜于对 30 棵分类树进行平均输出的标准随机森林。30 个 1000 规则泡沫也在深度神经分类器上进行训练,准确率为 96.26%。对这些泡沫吞吐量进行平均的随机泡沫本身的准确率为 96.14%。对其输出进行平均的随机泡沫准确率仅为 95.6%。附录证明了加法系统模糊近似定理的高斯组合泡沫版本。
XAI 模型高度透明,可以用人类语言解释 AI 决策是如何做出的。可解释性不仅为其决策提供解释,还帮助用户识别和理解潜在问题,因此他们可以利用结果来确定问题的根本原因并改进其操作流程。至关重要的是,它们不仅仅依赖于数据,还可以通过人类智能得到提升和增强。这些模型围绕因果关系构建,为人类感知创造了空间,以检测并确保机器学习具有代表性、全面性、完整性并处理所有可能的情况,如果没有,则允许进行必要的更改。
人工智能 (AI) 对我们生活的影响范围是深远的——随着人工智能系统在医疗保健、金融、移动、法律等高风险领域中激增,这些系统必须能够向不同的最终用户全面解释它们的决策。然而,可解释人工智能 (XAI) 的讨论主要集中在以算法为中心的方法上,在满足用户需求方面存在差距,并加剧了算法不透明的问题。为了解决这些问题,研究人员呼吁以人为本的 XAI 方法。需要通过来自不同利益相关者的反思性讨论来绘制领域图并塑造 XAI 的论述。本次研讨会的目标是研究如何在概念、方法和技术层面上将以人为本的 XAI 观点付诸实践。我们鼓励采用整体(历史、社会和技术)方法,强调“操作化”,旨在制定可操作的框架、可转移的评估方法、具体的设计指南,并阐明 XAI 的协调研究议程。