生成的AI(Genai)模型最近在各种应用中取得了出色的经验性能,但是它们的评估缺乏不确定性定量。在本文中,我们提出了一种基于其相对性能差距的无偏估计器比较两个生成模型的方法。从统计学上讲,我们的估计器达到了参数收敛率和渐近正态性,从而实现有效的推理。在计算上,我们的方法是有效的,可以通过并行计算和利用预存储的中间结果来加速。在具有已知地面真相的模拟数据集上,我们显示了我们的方法有效地控制I型错误,并实现与综合使用指标相当的功率。此外,我们还以统计置信度证明了方法在评估真实图像数据集上的扩散模型时的性能。
我们介绍 SPARC:用于从头算实空间计算的模拟包。SPARC 可以在静态和动态设置中对孤立系统(例如分子)以及扩展系统(例如晶体和表面)执行 Kohn-Sham 密度泛函理论计算。它安装/使用简单,与最先进的平面波代码具有很强的竞争力,在少数处理器上表现出可比的性能,并且随着处理器数量的增加而具有越来越大的优势。值得注意的是,SPARC 将大型并行计算机上具有 O(100-500)个原子的系统的求解时间缩短到几秒钟,比平面波同类产品高出一个数量级甚至更多。© 2021 作者。由 Elsevier BV 出版 这是一篇根据 CC BY-NC-ND 许可开放获取的文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。
深度学习领域的高性能计算 | Mohsin M. Jamali 博士,电气工程,500,000 美元 这项研究探索了加快深度学习计算速度的途径。深度学习有两个计算阶段;第一阶段是学习或训练数据,第二阶段是算法计算。由于深度学习本质上是并行的,因此计算也可以并行执行。深度学习领域的高性能计算研究可分为三大类。第一类是并行计算算法,第二类是缩短内存访问时间,而第三类是策略性地缩短字长。我们的高性能计算实验室已从 NVIDIA 获得了 DGX 工作站,用于在 GPU 上进行计算,我们目前正在获取基于 FPGA 的开发系统。这项工作由德克萨斯大学系统 STARs 计划资助。
摘要:光学模拟计算相较于传统数字计算具有并行计算、速度快、能耗低的天然优势。目前,片上光学模拟计算领域的研究主要集中在经典数学运算上,尽管量子计算具有诸多优势,但基于超表面的片上量子模拟器件尚未被展示。本文基于绝缘体上硅(SOI)平台,设计了一种特征尺寸为60×20 µm 2 的片上量子搜索器。利用经典波模拟基于叠加原理和干涉效应的量子搜索算法,同时结合片上超表面实现调制能力。当入射波聚焦在标记位置时,即可找到标记项,这与量子搜索算法的效率完全相同。所提出的片上量子搜索器有利于基于波的信号处理系统的小型化和集成化。
这是我刚开始学习计算机领域时希望读到的书。与大多数关于计算机的书不同——它们要么是关于如何使用计算机,要么是关于构建计算机的技术(ROM、RAM、磁盘驱动器等),这是一本关于思想的书。它解释或至少介绍了计算机科学领域的大多数重要思想,包括布尔逻辑、有限状态机、编程语言、编译器和解释器、图灵通用性、信息理论、算法和算法复杂性、启发式、不可交换函数、并行计算、量子计算、神经网络、机器学习和自组织系统。任何对计算机感兴趣并阅读这本书的人可能都曾接触过其中的许多思想,但除了正规的计算机科学教育之外,很少有机会看到它们是如何结合在一起的。这本书建立了联系——从简单的物理过程(如关闭开关)到自组织并行计算机所表现出的学习和适应。
摘要 — 随着逆变器资源 (IBR) 集成度的提高,确保大容量电力系统的可靠运行需要使用电磁暂态 (EMT) 仿真工具来识别和减轻全系统稳定性风险。然而,对大规模、富含 IBR 的电网进行 EMT 研究具有挑战性,因为底层高保真模型和所需的小时间步骤造成了固有的计算瓶颈。本文介绍了 ParaEMT:一个开源的通用 EMT 仿真框架,旨在通过利用先进的并行计算技术(如高性能计算机)来加速仿真。本文全面阐述了 ParaEMT,涵盖了其建模库、仿真策略、框架结构、操作程序和辅助功能,以及其可扩展的并行计算架构。值得注意的是,ParaEMT 是一个用 Python 编写的可公开访问的模块化框架,从而促进了未来的开发和新模型和算法的集成。通过多个案例研究的严格验证证明了 ParaEMT 的准确性和效率。
在本文中,我们认为,由于最近的技术进步,工作站网络 (NOW) 有望成为科学和工程的主要计算基础设施,从低端交互式计算到要求严格的顺序和并行应用程序。我们确定了 NOW 的三个机会,这些机会将使最终用户受益:通过使用 NOW 的聚合 DRAM 作为磁盘的巨型缓存,显着提高虚拟内存和文件系统性能;通过使用工作站磁盘的冗余阵列,使用 LAN 作为 I/O 背板,实现廉价、高可用性和可扩展的文件存储;最后,使用多个 CPU 进行并行计算。我们描述了利用这些机会的技术挑战 - 即高效的通信硬件和软件、多个工作站操作系统的全局协调以及企业级网络文件系统。我们目前正在构建一个 100 节点的 NOW 原型,以证明这些技术挑战存在切实可行的解决方案。
4202 - 法律网络科学 26 4203 - 民主的计算视角 27 4204 - 机器学习:基础和新前沿 28 4205 - 构建游戏原型以探索游戏感觉设计以获得情感体验 29 4206 - 使用生成模型学习运动计划 30 4207 - 在高维神经科学数据中建模弱信号 31 4208 - 学术界的泄漏管道 32 4209 - 几何(交叉)图中的距离 33 4210 - 在机器学习的帮助下使用物理模拟接近百亿亿次级 34 4211 - 用于核酸纳米结构的 DNAforge 设计工具 35 4212 - 概率机器学习中的位置 36 4213 - 分布式和并行计算理论 37 4214 - 贝叶斯工作流程38 4215 - 利用人类反馈进行强化学习的 LLM 分布式训练 (RLHF) 39
•即时消息。•并行计算。•直接到家庭内容,例如电视频道,Netflix,Amazon Prime Disney Hotstar,Apple TV等。1.1.2数据通信的组件在共享信息或通过网络进行通信时,我们通过五个组件交换数据。1。消息:这是指向要传达的信息或数据,这些信息或数据可能是文本,数字,图片,音频和视频是消息。2。发件人:在这里,我们将发件人称为发送数据消息的设备。它可以是计算机,工作站,手机,相机等。3。接收者:这里我们将接收器称为接收消息的设备。它可以是计算机,工作站,手机,电视等。4。传输/通信媒介:这是介质或路径,可促进从发件人到接收器传播的消息。传输介质的一些示例包括扭曲对线,同轴电缆,光纤电缆,无线电波,微波和卫星。主要是不同传输介质的组合。
在本文中,我们认为,由于最近的技术进步,工作站网络 (NOW) 有望成为科学和工程的主要计算基础设施,从低端交互式计算到要求严格的顺序和并行应用程序。我们确定了 NOW 的三个机会,这些机会将使最终用户受益:通过使用 NOW 的聚合 DRAM 作为磁盘的巨型缓存,显着提高虚拟内存和文件系统性能;通过使用工作站磁盘的冗余阵列,使用 LAN 作为 I/O 背板,实现廉价、高可用性和可扩展的文件存储;最后,使用多个 CPU 进行并行计算。我们描述了利用这些机会的技术挑战 - 即高效的通信硬件和软件、多个工作站操作系统的全局协调以及企业级网络文件系统。我们目前正在构建一个 100 节点的 NOW 原型,以证明这些技术挑战存在切实可行的解决方案。