图3。XRD结果缓慢冷却(虚线)和老化(实线)样品。黑色箭头指示与中间机相关的最大位置,如Guidotti等人所报道的24,如本工作的讨论部分所示。模式在垂直方向上取代。
xAI 技术可以应用于全局(即解释整个系统的行为)或局部(即解释其针对特定输入的行为)(Guidotti 等人,2018 年)。xAI 技术目前的例子包括显著性图,它可视化输入数据中最重要的预测区域,以及语义解缠,它从底层模型中提取人们可以理解的高级特征(Henne 等人,2020 年)。然而,除了一些值得注意的例外(例如 Cai 等人,2019b 年、Ehsan 等人,2021 年),很少有研究试图评估 xAI 技术的潜在适应性。
然而,为智能系统配备解释能力的原因不仅限于用户权利和技术接受度问题。设计人员和开发人员还需要可解释性来增强系统稳健性并进行诊断以防止偏见、不公平和歧视,以及增加所有用户对决策原因和方式的信任。因此,能够解释为什么做出某个决定已成为智能系统的理想属性(Doran、Schulz 和 Besold,2017 年)。解释应帮助用户理解系统模型,以便维护和有效使用它;它们还应协助用户调试模型以防止和纠正错误的结论。此外,解释可以起到教育作用,并有助于人们发现和理解应用领域的新概念。最后,解释与用户的信任和说服有关,它们应该传达一种可操作性,并让用户相信系统的决策对他们来说是最方便的。尽管如此,对于什么是解释,以及一个好的解释包含什么,并没有明确的共识。它的表现形式已在不同的人工智能系统和学科中得到研究。在本文中,我们从传统方法以及目前正在开发的方法的历史角度来研究可解释人工智能 (XAI) 的文献。相关文献非常庞大,本文并非旨在对 XAI 文献进行完整概述。20 世纪 80 年代中期以后,人工智能中可解释性的概念与专家系统中的概念一起逐渐消退(Buchanan & Shortliffe,1984;Wick & Thompson,1992),而机器学习技术的最新成功(Guidotti et al.,2018)又将可解释性概念带回人们的视野,既适用于自主系统(Nunes & Jannach,2017),也适用于人机交互系统(Holzinger,2016;Holzinger,Plass,et al.,2019),还应用于推荐系统(Tintarev & Masthof,2015)以及神经符号学习和推理方法(Garcez et al.,2015)。对于每个观点,读者都可以找到机器学习和深度学习(Arrieta 等人,2020 年;Fernandez、Herrera、Cordon、Jose del Jesus 和 Marcelloni,2019 年;Guidotti 等人,2018 年;Mueller、Hoffman、Clancey、Emrey 和 Klein,2019 年)、推荐系统(Nunes 和 Jannach,2017 年;Tintarev 和 Masthof,2015 年)和神经符号方法(Garcez 等人,2015 年)方面更全面的文献综述。本文的目的是提供概述并讨论如何构想不同的可解释性概念(分别是解释格式),并提供几个示例。本文的主要贡献是:
数据和计算能力的不断增长使得开发具有高度预测性的机器学习模型成为可能。另一方面,考虑到对具有重大社会影响的活动可能产生的不利后果,政策制定者和监管者对人工智能应用产生了一定程度的怀疑。为了在保护社会的同时促进创新,人们开始就开发可解释的人工智能 (XAI) 方法达成共识,即能够使机器学习模型可解释并因此被理解的方法,特别是在因果发现方面。事实上,近年来,人工智能应用和产品的日益普及,促使政策制定者和监管者要求底层机器学习模型是可解释的,以便人类用户能够理解它们:例如,参见欧洲委员会 (2020) 最近的论文。这一要求在受到严格监管的经济部门(如卫生和金融)中尤为明显。根据政策要求,研究人员最近讨论了如何使机器学习模型可解释的问题。现有论文将内容分为不同的解释类别。这些方法的详细评论可以在 Guidotti 等人 (2018) 中找到。本文仅关注两种方法:全局解释和局部解释。这是因为我们的提议是局部解释和全局解释相结合的结果。虽然全局解释描述了整个模型,即哪些解释变量最能决定其预测,但对于所有统计
● D. Gunning,可解释的人工智能(xAI),技术代表,国防高级研究计划局(DARPA)(2017)● AB Arrieta,等人。可解释的人工智能(XAI):概念、分类法、机遇和挑战,走向负责任的人工智能。信息融合 58(2020):82-115。● E. Tjoa、C. Guan,可解释的人工智能(XAI)调查:面向医学 XAI (2019)。arXiv:1907.07374。● LH Gilpin、D. Bau、BZ Yuan、A. Bajwa、M. Specter、L. Kagal,解释解释:机器学习可解释性概述 (2018)。 arXiv:1806.00069 ● FK Došilović、M. Brćić、N. Hlupić,可解释的人工智能:一项调查,载于:第 41 届信息和通信技术、电子和微电子国际会议 (MIPRO),2018 年,第 210-215 页。● A. Adadi、M. Berrada,窥视黑匣子内部:可解释的人工智能 (XAI) 调查,IEEE Access 6 (2018) 52138-52160。● O. Biran、C. Cotton,机器学习中的解释和论证:一项调查,载于:IJCAI-17 可解释人工智能 (XAI) 研讨会,第 8 卷,2017 年,第 1 页。● ST Shane、T. Mueller、RR Hoffman、W. Clancey、G. Klein,《人机交互系统中的解释:可解释人工智能的关键思想和出版物及参考书目的文献元评论概要》,国防高级研究计划局 (DARPA) XAI 计划技术代表 (2019)。● R. Guidotti、A. Monreale、S. Ruggieri、F. Turini、F. Giannotti、D. Pedreschi,《解释黑盒模型的方法调查》,ACM 计算调查 51 (5) (2018) 93:1–93:42。
13。Luxi,N.,Giovanazzi,A.,Capuano,A.,Crisafulli,S.,Cutroneo,P.M. G.,Petrelli,G.,Girotti,S.,Arzenton,E.,Magro,L.,Lora,R.,Bellantuono,D.,Sabaini,A. L.,Farinella,D.,Bavetta,S.,Sapigni,E.,Potenza,A.M.,Podetti,D.,Nikitina,V. Scaripanti,C.,Faccioli,M.,Romio,M.S.,Rossi,L.,Radici,S.,Negri,G.,Fares,L.,Ajolfi,C.,Fadda,A. Marchiori,F.,Cenulera,C.,Senna,G.,Crivellaro,M.A.,Cancen,M.,Venturini,F.,Ferri,M.,Leonardi,L.,Orzetti,S.,Caccin,E. Mauro,C.,de Carlo,I.,Senesi,I.,Pineggi,C.,Palleria,C.,Gallelli,L.,de
摘要 封装研究中心一直在开发下一代系统级封装 (SOP) 技术,该技术将数字、RF 和光学系统集成在一个封装上。SOP 旨在充分利用片上 SOC 集成和封装集成的优势,以最低的成本实现最高的系统性能。微型多功能 SOP 封装高度集成,并制造在类似于晶圆到 IC 概念的大面积基板上。除了新颖的混合信号设计方法外,PRC 的 SOP 研究还旨在开发封装级集成的支持技术,包括超高密度布线、嵌入式无源元件、嵌入式光学互连、晶圆级封装和细间距组装。这些支持技术中的几项最近已集成到使用智能网络通信器 (INC) 测试平台的首次成功的 SOP 技术系统级演示中。本文报告了 PRC 上最新的 INC 和 SOP 测试平台结果,并深入了解了未来融合微系统的 SOP 集成策略。本文的重点是将材料、工艺和结构集成到单个封装基板中以实现系统级封装 (SOP)。
过去十年,全球对可解释人工智能 (XAI) 的研究不断增加,这导致了许多领域特定方法的开发,用于解释机器学习 (ML) 模型并生成人类可理解的解释 (Abusitta 等人,2024 年;Aria 等人,2021 年)。这种增长在很大程度上是由 ML(尤其是深度学习)在电子商务、医疗保健和金融等各个领域的广泛采用推动的,在这些领域,人工智能系统的透明度至关重要 (Adadi 和 Berrada,2018 年)。XAI 在医疗保健等关键领域尤为重要,它有助于解释 ML 模型以进行疾病预测和诊断,在金融领域,它有助于解释信用评分模型和欺诈检测系统,确保法规遵从性和客户信任 (Whig 等人,2023 年;Bussmann 等人,2021 年)。先前的研究强调了整理跨各个子领域的 AI 可解释性文献的必要性(Burkart 和 Huber,2021 年;Molnar 等人,2020 年;Guidotti 等人,2018 年)。大多数 XAI 方法侧重于解释整个 ML 过程,解释采用规则、数值数据或视觉效果等形式,使用通常从人机交互 (HCI) 中得出的指标进行评估(Aria 等人,2024 年)。在先前努力的基础上,本文对全球 XAI 研究进行了系统、透明且可重复的文献计量综述(Donthu 等人,2021 年)。通过对 Web of Science 数据库中 6,148 篇文献进行系统文献综述 (SLR),本研究使用 Bibliometrix R 软件包 (Aria 和 Cuccurullo,2017),对 XAI 研究的现状、历史演变和未来方向进行了深入分析,包括科学活动趋势、主要出版物、作者贡献和国际合作。
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.