持续学习 (CL) 的目标是随着时间的推移学习不同的任务。与 CL 相关的主要需求是保持旧任务的表现,利用后者来改进未来任务的学习,并在训练过程中引入最小的开销(例如,不需要增长模型或重新训练)。我们提出了神经启发稳定性-可塑性适应 (NISPA) 架构,通过固定密度的稀疏神经网络解决这些需求。NISPA 形成稳定的路径来保存从旧任务中学到的知识。此外,NISPA 使用连接重新布线来创建新的可塑性路径,以便在新任务上重用现有知识。我们对 EMNIST、FashionM-NIST、CIFAR10 和 CIFAR100 数据集的广泛评估表明,NISPA 的表现明显优于具有代表性的最先进的持续学习基线,并且与基线相比,它使用的可学习参数减少了十倍。我们还认为稀疏性是持续学习的必要因素。NISPA 代码可在 https://github.com/BurakGurbuz97/NISPA 上找到
超维 (HD) 计算是计算机体系结构和理论神经科学交叉领域的一个新兴领域 [Kanerva, 2009]。它基于这样的观察:大脑能够使用以下电路执行复杂任务:(1) 功耗低、(2) 精度要求低、(3) 对数据损坏具有高度鲁棒性。HD 计算旨在将类似的设计原则延续到新一代数字设备中,这些设备具有很高的能效、容错能力,非常适合自然信息处理 [Rahimi et al. , 2018]。最近关于神经网络的大量研究也从大脑中汲取了灵感,但这些方法的现代实例已经偏离了上述要求。这些网络的成功取决于神经上不合理的选择,最明显的是显著的深度和通过反向传播进行的训练。此外,从实际角度来看,训练这些模型通常需要高精度和大量的能量。虽然大量文献试图通过神经网络改善这些问题,但这些努力大多是为了解决特定的性能限制。相比之下,上述属性
摘要 尽管现有研究引起了人们对实现公平人工智能的一系列障碍的关注,但该领域缺乏一个系统地强调这些担忧如何结合在一起的解释。此外,对公平人工智能和哲学文献的回顾表明,“一视同仁”和其他直观观念不适合作为公平概念。该回顾随后提出了对人工智能研究有价值的替代公平概念的三个要求:(1)它必须提供一个理解权衡的元理论,这意味着它必须足够灵活以捕捉对决策的各种反对意见。(2)它不能诉诸公正的观点(中立数据、客观数据或最终仲裁者)。(3)它必须突出公平判断对背景的敏感性,即对历史和制度状况的敏感性。我们认为,公平的概念是制度决策历史迭代中适当的让步,符合这三个要求。基于这一定义,我们将评论者的见解组织成道德领域的流程结构图,我们希望这能为分析公平人工智能的计算机科学家和伦理学家带来清晰的认识,同时为进一步的技术和哲学工作扫清障碍。
扩散模型的训练和采样已在先前的艺术中详尽阐明(Karras等,2022; 2024b)。取而代之的是,底层网络架构设计保持在摇摇欲坠的经验基础上。此外,根据最新规模定律的趋势,大规模模型涉足生成视觉任务。但是,运行如此大的扩散模型会造成巨大的综合负担,从而使其具有优化的计算并有效分配资源。为了弥合这些空白,我们浏览了基于u-NET的效率扩散模型的设计景观,这是由声望的EDM2引起的。我们的勘探路线沿两个关键轴组织,层放置和模块插入。我们系统地研究基本设计选择,并发现了一些有趣的见解,以提高功效和效率。这些发现在我们的重新设计的架构EDM2+中,这些发现将基线EDM2的计算复杂性降低了2倍,而不会损害生成质量。广泛的实验和比较分析突出了我们提出的网络体系结构的有效性,该结构在Hallmark Imagenet基准上实现了最先进的FID。代码将在接受后发布。
当 COVID-19 疫苗首次面世时,世界各国争相获取尽可能多的剂量,几乎没有进行协调(1-5)。为了缓解随之而来的混乱并提供全球公平的疫苗使用机会,世界卫生组织(WHO)、流行病防范创新联盟(CEPI)和疫苗联盟(Gavi)提出了多边倡议“新冠肺炎疫苗实施计划”(COVAX)。欧盟也代表其所有成员国采取了行动(6),美国则在各司法管辖区之间分配疫苗(7)。在这些情况以及许多其他情况下,疫苗都是集中采购的,必须在各个地区之间分配。然而,将集中采购的(稀缺)医疗资源分配给各个地区是一个复杂的问题,在不同环境中都会遇到这个问题。在 COVID-19 疫情中,上述各组织根据其政治支持而非客观、科学标准实施了不同的程序 ( 8 )。结果引发了一场伦理辩论,指出实施的程序存在许多严重缺陷 ( 9 , 10 )。例如,一些地区收到了足够的疫苗,可以开始为低优先级人群接种,而其他地区却无法为高优先级人群完全接种疫苗 ( 11 , 12 )。此外,人们注意到,如果他们从一个地区转移到另一个地区,他们实际上会获得更高的优先级 ( 13 , 14 )。根据医学伦理学文献中的著名观点(15-18),面对稀缺医疗资源的分配,需要考虑的关键伦理要求(或“基本价值”)有四个:“(i)最大化稀缺资源产生的效益,(ii)平等对待所有人,(iii)促进和奖励工具价值,以及(iv)优先考虑最差的结果”[(17),第 2051 页]。如果我们将注意力限制在稀缺疫苗的分配上,则第一和第三个基本价值对于建立不同的优先级类别相关。换句话说,优先级类别的定义应反映医学和科学证据,例如治疗对不同健康状态的个体的不同影响(12)和实际考虑,例如规定优先对待医务人员。相比之下,疫苗分配方面的挑战涉及上述第二和第四个基本价值。在本文中,我们阐明了稀缺疫苗分配的这些分配方面。换句话说,我们假设优先类别已经确定(例如,由医学伦理专家和世卫组织等组织确定)。剩下的关键伦理要求有两个。首先,应优先考虑弱势群体(如老年人或其他高危人群)和具有工具价值的群体(例如医务人员)。第二,平等的人,即拥有相同
可解释人工智能 (XAI) 领域已迅速成为一个蓬勃发展且成果丰硕的社区。然而,该领域一个不为人知、反复出现且公认的问题是缺乏对其术语的共识。特别是,每一项新贡献似乎都依赖于其自己的(通常是直观的)术语版本,例如“解释”和“阐释”。这种混乱阻碍了该领域进步的巩固,无法满足科学和监管要求,例如在比较方法或确定其对偏见和公平约束的遵从性时。我们提出了一个理论框架,它不仅为这些术语提供了具体的定义,而且还概述了产生解释和阐释所需的所有步骤。该框架还允许重新语境化现有贡献,以便可以衡量其范围,从而使它们与其他方法具有可比性。我们表明,该框架符合对解释、可解释性和评估指标的要求。我们提供了一个用例,展示了如何使用该框架来比较 LIME、SHAP 和 MDNet,确定它们的优点和缺点。最后,我们从我们的框架的角度讨论了 XAI 的相关趋势以及对未来工作的建议。
近年来,可解释人工智能 (XAI) 方法的实证评估文献越来越多。本研究通过对一组已建立的 XAI 方法在人工智能辅助决策中的效果进行比较,为这一持续的讨论做出了贡献。基于对先前文献的回顾,我们强调了理想的人工智能解释应该满足的三个理想属性——提高人们对人工智能模型的理解、帮助人们认识到模型的不确定性以及支持人们对模型的校准信任。通过三项随机对照实验,我们评估了四种常见的与模型无关的可解释人工智能方法是否在两种复杂程度不同的人工智能模型和两种人们认为自己具有不同领域专业知识水平的决策环境中满足这些属性。我们的结果表明,许多人工智能解释在用于人们缺乏领域专业知识的决策任务时,都不满足任何理想属性。在人们知识更丰富的决策任务上,即使人工智能模型本身就很复杂,特征贡献解释也能满足人工智能解释的更多要求。最后,我们讨论了我们的研究对改进 XAI 方法的设计以更好地支持人类决策以及推进更严格的 XAI 方法实证评估的意义。
生成的AI(Genai)标志着AI从能够“识别”到AI的转变,可以“生成”各种任务的解决方案。随着生成的解决方案和应用变得越来越复杂和多方面,新颖的需求,目标和可能性已出现以解释性(XAI)。在这项工作中,我们阐述了Xai为何在Genai的兴起及其在解释性研究中的挑战中变得重要。我们还揭露了解释应该实现的小说和新兴的逃避者,例如验证能力,互动性,安全性和成本方面。为此,我们专注于调查现有作品。此外,我们提供了相关维度的分类法,使我们能够更好地表征Genai的现有XAI机制和方法。我们讨论了不同的途径,以确保XAI,从培训数据到提示。我们的论文为非技术读者提供了Genai的简短而简洁的技术背景,重点介绍了文本和图像,以更好地了解Genai的新颖或改编的XAI技术。但是,由于Genai的大量作品,我们决定放弃与解释的评估和使用相关的XAI的详细方面。因此,手稿既利益,都以技术为导向的人和其他学科,例如社会科学家和信息系统研究人员。我们的研究路线图为未来的研究提供了十个以上的方向。
I.简介 638 A.原子频率标准和时钟的成分 638 B.频率标准的特性 639 C. 论文范围 639 II.时钟的要求:具有高频、窄线共振的量子系统 639 A.稳定性 639 B. 高频时钟候选者 640 C. 系统效应 641 1.环境扰动 641 a.磁场 641 b.电场 641 2.相对论性偏移 642 a. 多普勒频移 643 b. 引力红移 643 III.光谱纯且稳定的光振荡器 643 A. 激光稳定技术 643 B.稳定光源的远程分布 644 C. 稳定光源的光谱分布 645 IV.光学标准的测量技术 646 A.时钟周期和询问方案 646 B.原子噪声过程 647 C. 激光稳定原子共振 648 V. 捕获离子光频标准 649 A. 捕获离子 650 1.Paul 阱 651 2.线性离子阱 651 B. 冷却技术和 Lamb-Dicke 机制 653 C. 捕获离子的系统频率偏移 653 1.运动引起的偏移 653 2.塞曼效应 654 3.四极偏移 654
摘要:本文介绍了可解释人工智能 (XAI) 模型的联邦学习 (FL) 概念,作为先进 5G 至 6G 系统的一项使能技术,并讨论了其在自动车辆网络用例中的适用性。尽管已经广泛研究了神经网络的 FL,利用随机梯度下降的变体作为优化方法,但在固有可解释模型的背景下尚未得到充分研究。一方面,XAI 通过帮助最终用户信任(通过设计)网络内 AI 功能会发出适当的操作建议,允许改善所提供通信服务的用户体验。另一方面,FL 确保整个系统的车辆和用户数据的安全和隐私。现有的基于 AI 的无线网络规划、设计和运营解决方案往往忽略了这些要求。从这个角度来看,本文详细描述了相关的 6G 用例,重点关注车对万物 (V2X) 环境:我们描述了一个框架来评估所提出的方法,该方法涉及基于实时网络的真实数据进行在线训练。XAI 模型的 FL 有望作为一种实现去中心化、轻量级和通信高效智能无缝可用性的方法带来好处。所提出方法的影响(包括标准化视角)在于提高操作的可信度,例如通过可解释体验质量 (QoE) 预测,以及对来自传感器、终端、用户和应用程序的数据进行安全和隐私保护管理。