春季和夏季是 ESIF 数据中心的繁忙时期,因为 NREL 和惠普企业团队安装并测试了 Kestrel,这是 NREL 的第三代超级计算机,致力于推动能源效率、可持续交通、可再生能源和能源系统集成研究的进步。Kestrel 的第一阶段由基于英特尔 Sapphire Rapids 中央处理器的节点组成,已于 10 月财年开始全面投入运营。在其最终配置中,Kestrel 将于 2024 年冬季增加图形处理单元功能,其计算能力将超过其前身 Eagle 的五倍。Kestrel 将在计算材料、连续力学以及未来能源系统的大规模模拟和规划中发挥关键作用。人工智能和机器学习中快速发展的应用和技术正在促进创新和研究向计算新方向的扩展。这些工作流程通过将模拟与新的传感器数据源融合来推动互补物理和数据驱动方法。 Kestrel 的异构架构(包括仅中央处理单元和图形处理单元加速节点)旨在支持这些新兴的工作流程,为合作伙伴提供应对可再生和可持续未来的能源挑战的能力。
大规模并行 3-D 单程地震偏移 SLCS 购买了两台 Thinking Machines Corporation 连接机(最初是 CM-200,后来是 CM-5)。这些机器最初旨在用于 AI 应用,源自 20 世纪 80 年代初 Danny Hillis 在麻省理工学院 (MIT) AI 实验室的博士研究。购买它们是为了支持 SLCS 的 3-D 建模(参见“基于物理的计算机图形学”部分)。然而,最重要的成果之一是开创性的地震处理方法。大规模并行性使 3-D 单程深度偏移变得实用 [33]。在此之前,对于典型的地震勘测(磁带上输入的 1TB 数据),典型的 3D 处理序列可能需要在大型超级计算机上花费大约 30 周的时间,而仅偏移处理就需要 4 到 5 周的处理时间。新系统实现了近 10 倍的效率提升。现代地震处理集群并非完全不同:它们利用与 CM-5 数字信号处理器相当的 GPU,但性能和内存要高出几个数量级,并且集群机器之间具有高带宽、低延迟的行业标准互连。
在基于量子的计算方法领域,密度泛函理论 (DFT) 尤其引人注目,因为它能够以相对较低的计算成本为广泛的系统产生准确的结果。8 因此,每年都有大量的计算研究利用 DFT 计算。例如,美国国家能源研究科学计算中心 (NERSC) 报告称,2018 年其超级计算机资源的近 30% 仅用于 DFT 计算。9 广泛的研究和开发工作不断致力于优化 DFT 计算的性能和准确性,从而产生了大量开源和商业 DFT 软件包。10 一些软件包可以利用专用硬件(例如通用图形处理单元 (GPU))来承担大部分工作负载。 11 − 17 然而,在传统的 DFT 实现中,即没有对密度矩阵或哈密顿矩阵进行特定的稀疏性假设,计算成本与描述系统所用轨道数量 N 的三次方成比例(在本文中称为 O(N3) DFT),并且这种立方缩放通常使模拟大型系统(如蛋白质−配体复合物或金属−有机框架)18 的成本变得非常昂贵。
摘要 — 大脑模拟是人工智能领域的最新进展之一,它有助于更好地理解信息在大脑中的表示和处理方式。人脑极其复杂,因此只有在高性能计算平台上才能进行大脑模拟。目前,具有大量互连图形处理单元 (GPU) 的超级计算机用于支持大脑模拟。因此,超级计算机中的高吞吐量低延迟 GPU 间通信对于满足大脑模拟这一高度时间敏感的应用的性能要求起着至关重要的作用。在本文中,我们首先概述了当前使用多 GPU 架构进行大脑模拟的并行化技术。然后,我们分析了大脑模拟通信面临的挑战,并总结了应对这些挑战的通信设计指南。此外,我们提出了一种分区算法和一种两级路由方法,以实现多 GPU 架构中用于大脑模拟的高效低延迟通信。我们报告了在一台拥有 2,000 个 GPU 的超级计算机上模拟具有 100 亿个神经元的大脑模型的实验结果,以表明我们的方法可以显著提高通信性能。我们还讨论了尚待解决的问题,并确定了大脑模拟低延迟通信设计的一些研究方向。
对于未来两个月的海冰情况,IceNet 的准确率达到 92-97%(取决于季节),优于最先进的基于物理的模型。 研究人员发现,IceNet 在标准笔记本电脑上的运行速度比基于物理的模型在超级计算机上的运行速度快 2,000 倍,并且可以快速整合新的实时数据来应对快速变化的海冰情况。 该工具可以为未来季节提供准确的预测:这个时间表对于在北极生活和工作的人们的决策至关重要。 IceNet 将与 BAS 运营的皇家研究船 (RRS) Sir David Attenborough 的数字孪生(虚拟模型)集成,帮助绘制穿越海冰的省油路线,从而支持 BAS 到 2040 年实现净零排放的目标。 BAS 与世界自然基金会 (WWF) 和当地政府合作,目前正在探索如何将 IceNet 应用于加拿大北极地区危险海冰状况的保护规划和预警系统。 IceNet 是自然环境研究委员会于 2022 年发布的首个数字战略中关于人工智能工具在环境科学中的应用的案例研究。为什么图灵的 ASG 计划具有独特的优势来做到这一点?
世界上首要的高性能计算设施之一劳伦斯·利弗莫尔(Lawrence Livermore)是Livermore Computing(LC)的所在地,Livermore Computing是世界上最重要的高性能计算设施之一。LC拥有188多个PETAFLOPS的计算能力和许多Top500系统,包括125-Petaflop Sierra。继续延续世界一流的LLNL超级计算机的长血统,塞拉代表了通往Exascale Computing道路的倒数第二步,预计将在2023年通过称为El Capitan的LLNL系统实现。这些旗舰系统具有GPU的支持,并以3D的形式在从未见过的各种关键任务需求的情况下进行了多物理模拟。在2020年,LLNL和小脑系统将世界上最大的计算机芯片集成到Lassen系统中,并使用尖端的AI技术升级顶级超级计算机。这种组合创造了一种根本新型的计算解决方案,使研究人员能够研究新颖的预测建模方法。这些平台得到了我们的LEED认证,创新的基础设施,权力和冷却设施的支持;一个存储基础架构,包括三种文件系统和世界上最大的tfinity磁带档案;和顶级客户服务。我们的行业领先软件生态系统展示了我们对许多大型开源工作的领导,从折腾和ZFS到R&D 100屡获殊荣的SCR和SPACK。
摘要 大脑模拟作为人工智能领域的最新进展之一,有助于更好地理解信息在大脑中的表达和处理方式。人类大脑的极端复杂性使得大脑模拟只有在高性能计算平台上才可行。目前,用于支持大脑模拟的超级计算机具有大量互连的图形处理单元(GPU)。因此,超级计算机中的高吞吐量低延迟 GPU 间通信对于满足大脑模拟这一高度时间敏感的应用的性能要求起着至关重要的作用。在本文中,我们首先概述了当前使用多 GPU 架构进行大脑模拟的并行化技术。然后,我们分析了大脑模拟通信面临的挑战,并总结了应对这些挑战的通信设计指南。此外,我们提出了一种分区算法和一种两级路由方法,以实现多 GPU 架构中用于大脑模拟的高效低延迟通信。我们报告了在具有 2000 个 GPU 的超级计算机上模拟具有 100 亿个神经元的大脑模型(数字孪生大脑,DTB)的实验结果,以表明我们的方法可以显著提高通信性能。我们还讨论了尚待解决的问题,并确定了大脑模拟低延迟通信设计的一些研究方向。
世界上首要的高性能计算设施之一劳伦斯·利弗莫尔(Lawrence Livermore)是Livermore Computing(LC)的所在地,这是一家首要的高性能计算设施。LC拥有200多个PETAFLOP的计算能力和许多Top500系统,包括125-Petaflop Sierra系统。继续世界一流的LLNL超级计算机的血统,塞拉代表了Exascale Computing道路上的倒数第二步,预计将通过称为El Capitan的LLNL系统在2023年实现。这些旗舰系统具有GPU的支持,并以3D的形式在从未见过的各种任务需求的情况下进行了多物理模拟。在2020年,LLNL和小脑系统将世界上最大的计算机芯片集成到Lassen系统中,并使用尖端的AI技术升级顶级超级计算机。这种组合创造了一种根本新型的计算解决方案,使研究人员能够研究新颖的预测建模方法。这些平台得到了我们的LEED认证,创新的基础设施,权力和冷却设施的支持;一个存储基础架构,包括三种文件系统和世界上最大的tfinity磁带档案;和顶级客户服务。我们的行业领先的软件生态系统展示了我们对许多大型开源工作的领导,从与光泽和ZFS一起抛弃到R&D 100屡获殊荣的Flux,SCR和SPACK。
简介 尽管 20 世纪 40 年代的许多计算机都是作为军事项目开发的,但是真空管的使用使得它们过于庞大且不可靠,无法纳入实际的武器系统。 Eckert-Mauchly 计算机公司于 1949 年为 Northrop Aircraft 制造了 BINAC,但没人真正指望它会被装进飞机。 IBM 在 20 世纪 50 年代为北美防空系统制造的大型 SAGE(半自动地面环境)系统用于指挥和控制,而不是用于导弹制导。 当真空管被晶体管取代时,人们有可能拥有体积更小、可靠性更高的计算机。 晶体管于 1948 年在贝尔实验室发明,但经过数年的发展才适合用于计算机。 贝尔实验室于 1954 年为空军制造了第一台晶体管计算机 TRADIC(晶体管数字计算机)。 它使用了 700 个点接触晶体管和 10,000 个锗二极管。 (二极管是一种电子设备,它允许电流只朝一个方向流动。)斯佩里兰德的两个主要计算机开发小组(圣保罗和费城)都参与了早期的晶体管计算机项目。费城参与了原子能委员会的 LARC 超级计算机项目,该项目耗时长且成本高昂。圣保罗在早期为海军工作的基础上,积极参与军事项目。
摘要:量子优势是指量子计算机的性能优于传统计算机。谷歌最近通过运行随机多量子比特量子电路首次大规模展示了量子优势。虽然谷歌的量子计算机只用了 200 秒,但计算表明,当时最快的传统超级计算机需要 10000 年。从那时起,不同的团体通过其他量子系统宣称拥有量子优势。本文将通过介绍传统计算和量子计算之间的主要区别来介绍量子计算机为什么比传统计算机更快。然后,我们将研究 Deutsch-Jozsa 量子算法和谷歌声称的量子优势。我们将回顾当前关于“量子优势”的研究,将这些事件与所涵盖的用例联系起来。此外,我们还将分析理论上比任何当前量子算法都更快的不同量子算法,并深入研究为什么会这样。所涵盖的示例将展示用于改进量子计算机以提供显着时间差以实现量子优势的方法。之后,我们将对两个关键的量子硬件限制做出预测。最后,我们将探讨量子优势的未来前景以及一些未来的量子优势案例。