摘要 — 量子计算有望为解决某些问题带来变革性收益,但对其他问题则几乎没有任何收益。对于现在或将来希望使用量子计算机的人来说,了解哪些问题会受益非常重要。在本文中,我们介绍了一个框架,可以直观和定量地回答这个问题。该框架的底层结构是量子计算机和传统计算机之间的竞赛,它们的相对优势决定了各自的获胜时间。虽然传统计算机运行速度更快,但量子计算机有时可以运行更高效的算法。速度优势或算法优势占主导地位决定了问题是否会从量子计算中受益。我们的分析表明,许多问题,特别是那些对典型企业很重要的中小型问题,不会从量子计算中受益。相反,更大的问题或具有特别大算法收益的问题将从近期的量子计算中受益。由于非常大的算法收益在实践中很少见,理论上甚至在原则上也很少见,我们的分析表明,量子计算的好处将流向这些罕见情况的用户,或处理非常大数据的从业者。
摘要 量子纠缠为研究原子核等强相关系统的底层结构提供了独特的视角。在本文中,我们使用量子信息工具分析核壳模型中轻和中等质量的铍、氧、氖和钙同位素的结构。我们对壳模型价空间的不同均分采用不同的纠缠度量,包括单轨道纠缠、互信息和冯诺依曼熵,并确定与核单粒子轨道的能量、角动量和同位旋相关的模式纠缠模式。我们观察到单轨道纠缠与价核子的数量和壳层的能量结构直接相关,而互信息则突显了质子-质子和中子-中子配对的迹象。质子和中子轨道在所有测量中都是弱纠缠的,事实上,在所有可能的价态空间均分中,它们的冯·诺依曼熵最低。相反,具有相反角动量投影的轨道具有相对较大的熵。这一分析为设计更高效的量子算法以应对嘈杂的中尺度量子时代提供了指导。
结构和功能性脑网络已成为理解不同脑区之间相互作用以及特定神经系统疾病发病机制的越来越有用的工具。在过去十年中,人们对基于各种模式数据(例如 fMRI、EEG、PET 和 DTI)对脑网络进行建模以及捕捉脑网络的特征表示(例如连接、图拓扑和图神经网络)以了解发病机制的兴趣日益浓厚。由于大脑的复杂性远远超出我们的想象,揭示大脑的奥秘仍然面临许多挑战。因此,关于构建脑网络的多种方法、如何有效利用多模态数据以及如何最好地揭示有关大脑健康和疾病的信息仍然存在争议。网络科学在脑中的应用促进了我们对脑结构和功能组织的理解。此外,在这个框架内研究大脑可以有效地揭示神经系统疾病如何影响脑组织。在本研究主题中,我们力求收集有关脑网络构建、多模态融合、网络学习表征以及通过脑网络进行推理和预测的新发现。更具体地说,本研究主题的目标是通过数学建模促进对脑连接组的现有理解,开发新的和先进的方法来捕捉功能和结构之间的图形关系,有效利用多模态数据,准确学习脑部疾病中网络的表征,从而促进我们对大脑底层结构和动态的理解。从本主题中,我们不难发现,主要工作可以归纳为三类,即利用网络作为新的生物标志物、基于网络的新机器学习模型、新的脑网络估计方法(如图 1 所示)。
摘要 功能梯度材料 (FGM) 是一种特殊类型的先进复合材料,具有独特的功能和优势。FGM 的主要特性是其成分和微观结构在其维度上逐渐变化,从而增强了性能。FGM 由两种或两种以上的材料组成,以根据 FGM 的应用实现所需的特性。因此,FGM 在众多应用中引起了极大的兴趣。本文回顾了各种制造技术、分类及其在假肢领域的应用。 关键词:功能梯度材料 (FGM);加工技术;分类;应用;假肢。 1. 简介 纵观历史,从第一个人类到现在,材料一直在人类的生活中发挥着重要作用。在不同的时代,人类使用从自然界获得的不同材料或为了方便在许多应用中使用而人工制备的材料。虽然材料的特性是固有的,但它们可以通过多种方式改变。例如,通过组合材料或改变材料的底层结构。自古以来,人们就通过加工来改变材料的性能。合金化是将一种金属在熔融状态下与其他金属或非金属相结合,使其具有不同于母体材料的性能。人类历史上出现的第一种合金是青铜,它实际上是铜和锡的合金。青铜发明于公元前 3500 年,因此这个时代被称为青铜时代 [1]。然而,这种方法有局限性,即由于热力学平衡极限 [2],可溶解在另一种材料溶液中的材料量有限,并且禁止将熔点相差很大的两种不同材料合金化。为了克服这个问题,人们使用了粉末冶金 (PM) 方法,其中合金以粉末形式生产。这种方法具有优异的性能,但它有一些
1. 简介 想象一下,你生活在一个不公正的社会,这个社会的成员都是值得信赖、无所不知、异常直率的预言家。你问预言家你的社会是否会公正,并被告知你生活在幸运的时代:在未来五年内,全面的制度变革将使你的社会变成一个公正的社会。五年过去了,确实发生了全面的制度变革。由于你的预言家是值得信赖的,所以你知道你的社会现在是公正的。但你不知道为什么它是公正的,因为事实证明,正义是通过开发和实施一个集中的算法决策系统来分配利益和负担、执行法律等来实现的。这个系统太复杂了,你——或者除了预言家之外的任何人——都无法理解它的底层结构或它做出的决定。计算机科学、法律和哲学领域关于人工智能可解释性的新兴文献集中于解释人工智能的能力具有工具价值的各种方式。例如,可解释的人工智能被认为对追索权或对决策提出异议很有价值,这两者都是机构合法性和公平性的必要条件(Ventkatasubramanian 和 Alfano 2020;Vredenburgh 2021)。从该文献的角度来看,你相信神谕是无所不知的,那就错了。如果你的社会确实因其不透明性而令人反感,那么它一定是不公正的。然而,我想让你假设一下,想象中的社会确实是完全公正的。你是否仍然直觉地认为上述社会在某种程度上令人反感?我想很多人都这么认为。我将从解释的非工具价值的角度来解释和捍卫这种直觉。对组织和社会机构的结构和运作的解释具有非工具价值,因为它们构成了反思澄清我们每个人都不得不对自己的全面实践取向的基础。
1. 简介 想象一下,你生活在一个不公正的社会,这个社会的成员都是值得信赖、无所不知、异常直率的预言家。你问预言家你的社会是否会公正,并被告知你生活在幸运的时代:在未来五年内,全面的制度变革将使你的社会变成一个公正的社会。五年过去了,确实发生了全面的制度变革。由于你的预言家是值得信赖的,所以你知道你的社会现在是公正的。但你不知道为什么它是公正的,因为事实证明,正义是通过开发和实施一个集中的算法决策系统来分配利益和负担、执行法律等来实现的。这个系统太复杂了,你——或者除了预言家之外的任何人——都无法理解它的底层结构或它做出的决定。计算机科学、法律和哲学领域关于人工智能可解释性的新兴文献集中于解释人工智能的能力具有工具价值的各种方式。例如,可解释的人工智能被认为对追索权或对决策提出异议很有价值,这两者都是机构合法性和公平性的必要条件(Ventkatasubramanian 和 Alfano 2020;Vredenburgh 2021)。从该文献的角度来看,你相信神谕是无所不知的,那就错了。如果你的社会确实因其不透明性而令人反感,那么它一定是不公正的。然而,我想让你假设一下,想象中的社会确实是完全公正的。你是否仍然直觉地认为上述社会在某种程度上令人反感?我想很多人都这么认为。我将从解释的非工具价值的角度来解释和捍卫这种直觉。对组织和社会机构的结构和运作的解释具有非工具价值,因为它们构成了反思澄清我们每个人都不得不对自己的全面实践取向的基础。
摘要 目的。预测大脑如何通过内部或外部控制进入特定状态需要从根本上理解神经连接与活动之间的关系。网络控制理论是物理和工程科学中一个强大的工具,可以提供有关这种关系的见解;它形式化了复杂系统的动态如何从其相互连接的单元的底层结构中产生的研究。方法。鉴于网络控制理论最近在神经科学中的应用,现在是时候为结构脑网络可控性的方法论考虑提供实用指南了。在这里,我们系统地概述了该框架,研究了建模选择对经常研究的控制指标的影响,并提出了可能有用的理论扩展。我们的讨论、数值演示和理论进展基于一个高分辨率扩散成像数据集,该数据集包含 730 个扩散方向,这些扩散方向是从十名健康年轻人身上扫描约 1 小时获得的。主要结果。在对该理论进行教学介绍之后,我们探讨了建模选择如何影响四个常见统计数据:平均可控性、模态可控性、最小控制能量和最佳控制能量。接下来,我们将通过两种方式扩展当前的最新技术:首先,开发一种替代的结构连接测量方法,以解释活动通过邻接组织的径向传播;其次,定义一个补充指标,量化系统能量景观的复杂性。最后,我们将提出具体的建模建议并讨论方法论上的限制。意义。我们希望这个通俗易懂的解释将激励神经成像界更充分地利用网络控制理论的潜力,解决认知、发育和临床神经科学中的紧迫问题。
功能性脑网络由底层结构网络塑造和约束。然而,功能网络不仅仅是结构网络的一对一反映。已经提出了几种理论来理解结构网络和功能网络之间的关系。然而,如何将这些理论统一起来仍不清楚。两种现有的最新理论指出:1)功能网络可以通过结构网络中的所有可能路径来解释,我们将其称为级数展开方法;2)功能网络可以通过结构网络特征模式的加权组合来解释,即所谓的特征模式方法。为了阐明这些方法从结构网络估计功能网络的独特或共同解释力,我们分析了这两种现有观点之间的关系。使用线性代数,我们首先表明特征模式方法可以用级数展开方法来表示,即,与不同跳数相关的结构网络上的路径对应于该网络特征向量的不同权重。其次,我们为特征模方法和级数展开方法的系数提供了明确的表达式。这些理论结果通过来自扩散张量成像 (DTI) 和功能性磁共振成像 (fMRI) 的实证数据得到了验证,表明基于这两种方法的映射之间存在很强的相关性。第三,我们通过分析和实证证明,特征模方法对测量功能数据的拟合度始终至少与级数展开方法的拟合度一样好,并且结构数据中的误差会导致级数展开方法估计系数的较大误差。因此,我们认为应该优先使用特征模方法而不是级数展开方法。结果适用于加权邻接矩阵的特征模以及图拉普拉斯算子的特征模。总的来说,这些结果为统一现有的脑网络结构功能关系理论迈出了重要的一步。
电磁学的麦克斯韦方程、爱因斯坦的狭义和广义相对论以及粒子物理学中基本力的规范理论。从更务实的角度来看,对称性有很多应用,例如晶体学中的应用或它们为问题研究带来的简化:对称性是手头信息背后的组织结构。因此,发现这种模式可以加深理解,就像罗夏赫测试的简单情况一样:注意到墨迹的反射对称性可以帮助孩子猜测这些图画是如何制作的,即通过将吸墨纸折叠起来。这种理解使我们能够简化处理数据的方式,并且在更深层次上可以表明存在更高层次的原理。对称性与简单性甚至优雅之间的这种联系在理论物理学中经常出现。在艺术中,对称性也经常与优雅的概念联系在一起。这并不是说对称的艺术品更美丽,因为众所周知,大多数人更喜欢对称性不是完全对称,而是略有不完美或破碎的面孔、乐曲、绘画和照片 [ 1 , 2 ] 。在物理学中,对称情况的偏差通常被认为是一种有用的近似技术,因为在自然界中很少发现完美的对称性。发现对称性的一个物理学例子是火星的运动。天文学家第谷·布拉赫在 1601 年去世前,收集了它在夜空中位置的最精确记录。这些数据中有一个底层结构,约翰尼斯·开普勒花了很多年才将其梳理成椭圆形 1 。从这种更简单的数据表示中,艾萨克·牛顿能够推导出引力定律,该定律表现出中心对称性,毫无疑问,与最初的观测集合相比,它更简单、更深入、更普遍地描述了天体的运动。快进许多年,我们现在明白,牛顿定律可以通过将对称性强加于一个称为作用的抽象对象上来获得。我们在本文中的想法是为布拉赫和牛顿之间的开普勒中间步骤的自动化或人工智能 (AI) 版本奠定基础。面向任务的功能性 AI 一般概念实现称为机器学习 (ML)。它涉及为计算机提供一般处方的算法,以便逐步逼近(或学习)适当的规则来重现特定的观察结果。这与传统程序形成了鲜明对比,传统程序缺乏这里所需的表达能力。目前,科学,尤其是物理学,正在经历一场革命 [ 3 ] ,因为在具有大数据集的实验领域中采用的 ML 方法被应用于更正式的领域,甚至用于符号数学 [ 4 ] 。ML 确实特别擅长模式识别,因此我们提出一个问题:当这些方法用于从数据中提取信息时,它们是否也能检测到它们所接触的数据中对称性的存在?如果可以,它们会自动这样做吗?它们是否自然地根据对称模式组织信息?在本文中,我们迈出了回答上述问题的第一步。除了好奇心和想要了解自然法则和机器学习的发展方式的愿望之外,我们还运用我们的方法来研究物理和艺术之间的深层联系。在第 2 节中基于物理的设置上训练算法之后,我们在第 3 节中将它们应用于艺术品并评估它们的对称性。这项工作可以进行许多扩展和应用,在第 4 节中我们将讨论这个方向的一些想法。
扩散概率模型 扩散概率模型是一类潜在变量模型,常用于图像生成等各种任务(Ho 等人,2020 年)。正式而言,扩散概率模型通过对数据点在潜在空间中扩散的方式进行建模来捕获图像数据,这是受统计物理学启发的。具体来说,它们通常使用经过变分推理训练的马尔可夫链,然后逆转扩散过程以生成自然图像。一个值得注意的变体是稳定扩散(Rombach 等人,2022 年)。扩散概率模型也用于 DALL-E 和 Midjourney 等商业系统。生成对抗网络 GAN 是一类具有自定义对抗学习目标的神经网络架构(Goodfellow 等人,2014 年)。GAN 由两个以零和博弈形式相互竞争的神经网络组成,从而生成特定分布的样本。正式来说,第一个网络 G 称为生成器,用于生成候选样本。第二个网络 D 称为鉴别器,用于评估候选样本来自期望分布的可能性。得益于对抗性学习目标,生成器学习从潜在空间映射到感兴趣的数据分布,而鉴别器则将生成器生成的候选样本与真实数据分布区分开来(见图 2)。(大型) 语言模型 (大型) 语言模型 (LLM) 是指用于建模和生成文本数据的神经网络,通常结合了三个特征。首先,语言模型使用大规模、顺序神经网络(例如,具有注意力机制的 Transformer)。其次,神经网络通过自我监督进行预训练,其中辅助任务旨在学习自然语言的表示而不存在过度拟合的风险(例如,下一个单词预测)。第三,预训练利用大规模文本数据集(例如,维基百科,甚至多语言数据集)。最终,语言模型可以由从业者使用针对特定任务(例如,问答、自然语言生成)的自定义数据集进行微调。最近,语言模型已经发展成为所谓的 LLM,它结合了数十亿个参数。大规模 LLM 的突出例子是 BERT(Devlin 等人,2018 年)和 GPT-3(Brown 等人,2020 年),分别具有 ∼ 3.4 亿和 ∼ 1750 亿个参数。提示是语言模型的特定输入(例如,“这部电影很精彩。从人类反馈中进行强化学习 RLHF 从人类反馈中学习顺序任务(例如聊天对话)。与传统强化学习不同,RLHF 直接从人类反馈中训练所谓的奖励模型,然后将该模型用作奖励函数来优化策略,该策略通过数据高效且稳健的算法进行优化(Ziegler 等人,2019 年)。RLHF 用于 ChatGPT(OpenAI,2022 年)等对话系统,用于生成聊天消息,以便新答案适应之前的聊天对话并确保答案符合预定义的人类偏好(例如长度、风格、适当性)。提示学习 提示学习是一种 LLM 方法,它使用存储在语言模型中的知识来完成下游任务(Liu 等人,2023 年)。一般而言,提示学习不需要对语言模型进行任何微调,这使其高效且灵活。情绪:“),然后选择最可能的输出 s ∈{“positive”,“negative”} 而不是空间。最近的进展允许更复杂的数据驱动提示工程,例如通过强化学习调整提示(Liu et al.,2023)。seq2seq 术语序列到序列(seq2seq)是指将输入序列映射到输出序列的机器学习方法(Sutskever et al.,2014)。一个例子是基于机器学习的不同语言之间的翻译。此类 seq2seq 方法由两个主要组件组成:编码器将序列中的每个元素(例如,文本中的每个单词)转换为包含元素及其上下文的相应隐藏向量。解码器反转该过程,将向量转换为输出元素(例如,来自新语言的单词),同时考虑先前的输出以对语言中的模型依赖关系进行建模。seq2seq 模型的思想已得到扩展,以允许多模态映射,例如文本到图像或文本到语音的映射。Transformer Transformer 是一种深度学习架构(Vaswani 等,2017),它采用自注意力机制,对输入数据的每个部分的重要性进行不同的加权。与循环神经网络 (RNN) 一样,Transformer 旨在处理顺序输入数据(例如自然语言),可用于翻译和文本摘要等任务。但是,与 RNN 不同,Transformer 会一次性处理整个输入。注意力机制为输入序列中的任何位置提供上下文。最终,Transformer(或一般的 RNN)的输出是文档嵌入,它呈现文本(或其他输入)序列的低维表示,其中相似的文本位于更近的位置,这通常有利于下游任务,因为这允许捕获语义和含义 (Siebers et al., 2022)。变分自动编码器 变分自动编码器 (VAE) 是一种神经网络,它被训练来学习输入数据的低维表示,方法是将输入数据编码到压缩的潜在变量空间中,然后从该压缩表示中重建原始数据。VAE 与传统自动编码器的不同之处在于,它使用概率方法进行编码和解码过程,这使它们能够捕获数据中的底层结构和变化,并从学习到的潜在空间中生成新的数据样本 (Kingma and Welling, 2013)。这使得它们不仅可用于异常检测和数据压缩等任务,还可用于图像和文本生成。零样本学习/小样本学习 零样本学习和小样本学习是指机器学习处理数据稀缺问题的不同范例。零样本学习是指教会机器如何从数据中学习一项任务,而无需访问数据本身,而小样本学习是指只有少数特定示例的情况。零样本学习和小样本学习在实践中通常是可取的,因为它们降低了建立 AI 系统的成本。LLM 是小样本或零样本学习器(Brown 等人,2020 年),因为它们只需要一些样本即可学习一项任务(例如,预测评论的情绪),这使得 LLM 作为通用工具具有高度灵活性。