CH1为什么要微电子? CH2半导体的基本物理学CH3二极管电路双极晶体管的CH4物理学CH5双极放大器MOS晶体管的CH6物理学CH7CMOS放大器的CH6物理学CH8CH8操作性放大器作为黑匣子CH16数字CMOS Circuits cmos CircuittCH1为什么要微电子?CH2半导体的基本物理学CH3二极管电路双极晶体管的CH4物理学CH5双极放大器MOS晶体管的CH6物理学CH7CMOS放大器的CH6物理学CH8CH8操作性放大器作为黑匣子CH16数字CMOS Circuits cmos Circuitt
通过例如人工神经网络获得的预测具有很高的准确性,但人类通常将模型视为黑匣子。关于决策的见解对人类来说大多是不透明的。特别是了解医疗保健或金融等高度敏感领域的决策至关重要。黑匣子背后的决策需要它对人类更加透明、负责和易于理解。本调查论文提供了基本定义,概述了可解释的监督机器学习 (SML) 的不同原理和方法。我们进行了一项最先进的调查,回顾了过去和最近的可解释 SML 方法,并根据引入的定义对它们进行分类。最后,我们通过解释性案例研究说明原则并讨论重要的未来方向。
人工智能 (AI) 的成功采用在很大程度上取决于决策者对它的理解和信任程度 [6]。在不久的将来,人工智能将对人类做出深远的决策,例如在自动驾驶汽车、贷款申请或刑事司法系统中。像 COMPAS 这样的例子,一种用于假释决策的种族偏见算法表明需要审查人工智能决策 [7]。但像深度神经网络 (DNN) 这样的复杂人工智能模型很难被人类理解,并且充当事实上的黑匣子 [16]。相比之下,决策树等简单模型对人类来说更容易理解,但缺乏预测准确性 [9],尽管有些人认为这不一定正确 [21]。可解释人工智能领域旨在创建更可解释的模型,同时仍实现高预测能力。目前的研究讨论表明,可解释性将带来更多的信任、更现实的期望和更公平的决策 [6]。事后解释技术通过创建一个简化的、可解释的解释模型来工作,该模型近似于黑匣子的行为 [24]。然而,这种简化并非没有风险,因为根据定义,黑匣子的精确工作原理并未显示出来 [24]。相反,可解释模型旨在使
摘要 2010 年代后期,各种国际委员会、专家组和国家战略委员会都提出了“打开”算法黑匣子、审核、阐述和揭开人工智能神秘面纱的要求。然而,打开算法黑匣子不能仅仅看作是一项工程挑战。在本文中,我认为只有通过批判而产生的那种透明度——一种通过揭示先前存在的权力结构并旨在挑战它们的理论考察方法——才能帮助我们生产出欺骗性更小、更公正的技术系统。我将人工智能透明度问题与负责任的制造这一更广泛挑战联系起来,并主张未来的行动必须旨在系统地调和设计(作为一种隐藏的方式)与批评(作为一种揭示的方式)。
摘要 有一种方法可以通过实施人工智能技术来改变医疗管理。最新技术正在融入研究技术。它为专家提供了一种提供准确、一致和知识渊博的结果的方法。它动态地结合了与人工智能相关的系统所使用的责任和清晰度推理。这些调节中出现的主要问题包括问责制以及基于人工智能的系统所形成的明确概念。这些也从科学偏见中得到了提升。这些可以很好地调整,并且可以稳定地满足以系统的方式使社区受益的必要性。人工智能可用于医学分析中的大量有组织和无组织数据。这些技术包括不同的方法,例如支持向量机和一些其他网络,用于那些无组织数据。为此,必须使用一些人工智能工具。它将在大规模医学分析中有效,与详细计算和基于结果的有意义的分析相结合。该研究根据这些并发症实施了大数据与医疗保健的相应方法进行探索(Xafis 等人,2019 年)。探索在适当的标准方面展开。基于此,分析人员可以解释数据,以便正确、准确地传播和使用基于人工智能的系统进行医学分析。然而,人工智能在充当黑匣子方面发挥着重要作用,其特征以及数量、计算和技术将由专家适当调节。黑匣子医学将指出这一点。在这篇研究论文中,黑匣子如何处理需要执行的以患者为中心的医学。
图4:超级金属和金属3D的疯狂分布跨各种概率截止。内核密度估计用于说明分布,突出显示中位数(白色圆圈),四分位数(黑匣子)和数据扩展(晶须量最高为1.5倍。
人工智能 (AI) 已成为我们社会的主要组成部分之一,其应用范围涵盖我们生活的方方面面。在这个领域,复杂且高度非线性的机器学习模型(例如集成模型、深度神经网络和支持向量机)在解决复杂任务方面始终表现出卓越的准确性。尽管准确,但人工智能模型通常是我们无法理解的“黑匣子”。依赖这些模型会产生多方面的影响,并引发对其透明度的重大担忧。敏感和关键领域的应用是尝试理解黑匣子行为的强大动机因素。我们建议通过聚合“局部”解释在黑匣子模型之上提供可解释层来解决此问题。我们提出了 GLocalX,一种“局部优先”模型不可知解释方法。从以局部决策规则形式表达的局部解释开始,GLocalX 通过分层聚合它们,将它们迭代地概括为全局解释。我们的目标是学习准确但简单且可解释的模型来模拟给定的黑匣子,并且在可能的情况下完全取代它。我们在标准和受限设置中的一组实验中验证了 GLocalX,这些实验对数据或本地解释的访问有限或根本没有访问。实验表明,GLocalX 能够使用简单和小型模型准确模拟多个模型,与原生全局解决方案相比达到最先进的性能。我们的研究结果表明,即使在具有高维数据的复杂领域中,也通常可以实现分类模型的高水平准确性和可理解性,而不必用一个属性换取另一个属性。这是值得信赖的人工智能的关键要求,对于高风险决策应用程序的采用必不可少。
人工智能 (AI) 技术是一门迷人、发人深省且具有挑战性的学科,它无处不在,具有全球重要性。欧盟委员会在 2020 年 2 月 19 日发布的人工智能问题白皮书中总结了当前状况,讨论了彻底改变许多复杂流程的各种人工智能概念 [1]。最初的工具是算法,最近软件程序的使用也呈增长趋势 [1-3]。人工智能作为一个特殊术语诞生于 1956 年,当时达茅斯学院数学教授约翰·麦卡锡 (John McCarthy) 提出了一项研究项目 [2],目的是简化复杂的过程。该项目的原则是提供一些工具,使数据能够输入到黑匣子中,黑匣子可以系统地评估输入的数据并促进输出明确的结果,例如复杂疾病的诊断 [3]。在人工智能概念刚刚开发的时候,人们的重点是算法,这些算法大多是手动应用的,在有用的软件出现之前。