约翰·冯·诺依曼(/vɒn ˈnɔɪmən/;匈牙利语:Neumann János Lajos,发音为 [ˈnɒjmɒn ˈjaːnoʃ ˈlɒjoʃ];1903 年 12 月 28 日 - 1957 年 2 月 8 日)是一位匈牙利裔美国数学家、物理学家、计算机科学家、工程师和博学者。冯·诺依曼被普遍认为是他那个时代最重要的数学家,被称为“伟大数学家的最后代表”;他将纯科学和应用科学融为一体。他在许多领域做出了重大贡献,包括数学(数学基础、泛函分析、遍历论、表示论、算子代数、几何、拓扑和数值分析)、物理学(量子力学、流体动力学和量子统计力学)、经济学(博弈论)、计算机(冯·诺依曼架构、线性规划、自复制机器、随机计算)和统计学。
五十多年来,冯·诺依曼体系结构的灵活性(其中来自离散内存单元的数据作为操作和操作数到达专用计算单元)推动了系统性能的指数级提升。这些计算系统需要在执行计算任务期间高速来回传送大量数据。但是,随着设备缩放因功率和电压考虑而放缓,在内存和计算单元之间所谓的“冯·诺依曼瓶颈”上传输数据所花费的时间和能量已成为问题。这些性能瓶颈和明显的面积/功率效率低下对于以数据为中心的应用尤其不可避免,例如实时图像识别和自然语言处理,其中最先进的冯·诺依曼系统努力匹配普通人的表现。我们正处于人工智能 (AI) 和认知计算革命的风口浪尖,算法的进步使得深度神经网络 (DNN) 在模式识别、游戏、机器翻译等许多任务上接近甚至超越人类的表现。
我将讨论冯诺依曼代数上映射的绝对膨胀概念,主要关注具有附加模块性条件的 B(H) 上的映射。这一概念最近由 C. Duquet 和 C. Le Merdy 定义和研究。他们描述了可膨胀 Schur 乘数的特征。我们通过将 Schur 乘数要求替换为任意冯诺依曼代数上的模数(而不是最大阿贝尔自伴代数)来扩展结果。此类映射的特征是存在一个称为辅助算子的迹冯诺依曼代数 ( N , τ ) 和某个幺正算子。不同类型的辅助算子(阿贝尔、有限维等)导致了局部、量子、近似量子和量子交换可膨胀映射的定义,我将讨论这些类型之间的关系。研究不同类型膨胀的动机来自量子信息论。我将解释 QIT 和可膨胀映射之间的相互关系。
冯·诺依曼 早期的计算机通常设计用于执行特定任务或计算。重新编程这些定制的计算机非常困难,甚至可能需要重新布线。1945 年,约翰·冯·诺依曼提议将程序指令与数据存储在同一内存中。这种存储程序的想法通常被称为“冯·诺依曼”架构,它使得计算机可以更轻松地重新编程,并且是现代计算机处理的基础——提取-解码-执行循环的基础。提取-解码-执行循环 处理当前运行的程序给出的指令分为三个步骤:1.提取循环从内存中获取所需的地址,将其存储在指令寄存器中,并将程序计数器移动到一个位置,使其指向下一条指令。2.控制单元检查指令寄存器中的指令。解码指令以确定需要执行的操作。3.执行周期中发生的实际操作取决于指令本身。
条件冯·诺依曼熵适用于描述在多次重复的独立同分布极限下执行某些信息处理任务所需的资源(例如,给定量子边信息的数据压缩 [9])。然而,当考虑一次性场景时(其中执行有限次数的重复,不一定是独立同分布),冯·诺依曼熵就不够了。此外,正如我们将看到的,在密码学中,我们通常对分析特定任务的性能感兴趣,允许较小的失败概率。因此,我们需要在这些场景中具有有意义解释的熵量。有关一次性信息处理的讨论,我们请读者参阅 [10]。
• 冯·诺依曼的讲稿。• 比较大脑和数字计算机的架构。• 神经元如何处理精度问题。• 记忆存储的根本区别。
经典计算机被理解为冯·诺依曼架构的硬件实现。它假设所有计算都表示为程序,即机器命令序列。命令由处理器执行(大多数处理器都有几个相对独立运行的计算核心)。命令和数据存储在共享内存中。该架构的瓶颈是内存和处理器之间的数据总线的带宽有限。数据总线的负载主要来自于程序执行过程中各个核心通过RAM交换的中间计算数据的传输。在冯·诺依曼计算机上计算感知器的输出值时,需要执行尽可能多的内存读取操作