经典算法通常对信息处理构成瓶颈[1]。它们通常旨在处理一致的,完全有序的,抽象的数量,而实际上,我们需要对嘈杂,高维数据进行推理。机器学习和神经网络(NNS)尤其使机器可以从此类输入中提取有用的功能,但是如果其输出需要与非差异性算法组成,则他们将无法通过反向传播从直接反馈中学习。以使算法适用的方式压缩信息会丢失许多潜在的相关细节。通过教导NNS如何执行算法来打破这种瓶颈是神经算法推理的目标[1-3]。对现实世界数据的首次应用是有希望的[4-6],但是即使在高度精心制作的架构上,推断仍然有改进的空间[7,8]。因此,显然需要更仔细地研究神经网络的信息处理功能。
在生物网络中,某些节点比其他节点更有影响力。最具影响力的节点是那些其消除会导致网络崩溃的节点,而检测这些节点在许多情况下至关重要。然而,当生物网络规模很大时,这是一项艰巨的任务。在本文中,我们设计并实现了一种高效的并行算法,利用图形处理单元 (GPU) 检测大型生物网络中的有影响力节点。所提出的并行算法背后的基本概念是重新设计几个计算量巨大的检测有影响力节点的程序,并将其转化为相当高效的 GPU 加速原语,如并行排序、扫描和缩减。四个局部指标,包括度中心性 (DC)、伴随行为 (CB)、聚类系数 (CC) 和 H 指数,用于衡量节点影响力。为了评估所提出的并行算法的效率,在实验中采用了五个大型真实生物网络。实验结果表明:(1) 与相应的串行算法相比,所提出的并行算法可以实现大约 48 ∼ 94 的加速比; (2) 与在多核 CPU 上开发的基线并行算法相比,所提出的并行算法对于 DC 和 H-Index 的加速比为 5 ∼ 9,而对于 CB 和 CC 的加速比由于度分布不均匀而略慢;(3) 当使用 DC 和 H-Index 时,所提出的并行算法能够在不到 3 秒的时间内检测出由 1.5 亿条边组成的大型生物网络中的影响节点。© 2019 Elsevier BV 保留所有权利。
并行算法用于负载流分析、故障分析、意外事件评估和暂态稳定性研究。20 小时。参考书目:1. Vipin Kumar、Ananth Grama、Anshul Gupta 和 George Karypis - 并行计算简介 - 算法设计和分析,Benjamin/Cummings 出版公司,1994 年。2. MJQuinn - 并行计算 - 理论与实践,McGraw-Hill 出版公司,1994 年。3. Kai Hwang - 高级计算机体系结构 - 并行性、可扩展性、可编程性、
高维计算代表了一种相对不同的方法来接近人工intel-intel-ligence,而不是成为主流。它专注于使用连接范式与一组简单的代数操作的使用,以形成一个强大的框架来表示观察。在本文中,我们展示了这些代数操作如何用于为超维语言模型构建并行算法。我们首先提出一个问题,即从工程和科学的角度来看,为什么这是有用的。然后,我们展示了如何构建DI设并行算法来回答这些问题的每个问题。一种算法着重于将数据分配给DI设工人,以最大程度地减少运行时,而另一种算法则侧重于分布不同的嵌入技术,以便在大脑启发的过程中进行并行学习。这两种算法都能够实现出色的效率,但是将数据分配到多个工人的算法是最有效的。我们将这些方法与流行的Word2Vec模型进行了比较,并显示它们如何在用于测试单词嵌入的原始指标之一(TOEFL测试)上胜过它们。最后,我们描述了我们对未来工作的愿景,特别是使用算法与语言和视觉的联合超二维模型并行学习多模式嵌入。
在计算机科学和非数字计算的数学和形式方面进行了最重要的工作的覆盖范围。Topics include but are not limited to analysis and design of algorithms, algorithmic game theory, data structures, computational complexity, computational algebra, computational aspects of combinatorics and graph theory, computational biology, computational geometry, computational robotics, the mathematical aspects of programming languages, artificial intelligence, computational learning, databases, information retrieval, cryptography, networks, distributed computing,并行算法和计算机架构。
摘要 — 量子计算将通过利用叠加、纠缠和干涉等量子力学效应,实现大规模并行算法的设计,从而以有效方式解决难题,从而彻底改变计算领域。这些计算改进可能会对模糊系统在诸如大数据等环境中的设计和使用方式产生重大影响,在这些环境中,计算效率是一个不可忽略的约束。为了为这一创新方案铺平道路,本文介绍了一种基于二次无约束二元优化 (QUBO) 问题的模糊集和运算符的新表示,以便在一种称为量子退火器的量子计算机上实现模糊推理引擎。
任职(续) 贝尔通信研究 (Bellcore)(1999 – 2003 年):高级研究科学家;(1995 – 1999 年):研究科学家:数学和密码学研究组,应用研究。 伯克利(1992 年秋季 – 1995 年 8 月):NSF 数学科学博士后研究员。主持人:Manuel Blum 教授。 IBM TJ Watson 研究中心,纽约霍桑。(1992 年 7 月 – 8 月);(1991 年 6 月 – 9 月);(1990 年 7 月 – 9 月):暑期实习研究职位:分布式算法、密码学。 AT&T 贝尔实验室,新泽西州默里山。(1990 年 5 月 – 7 月)。数学研究中心。暑期实习研究职位:密码学、分布式和并行算法。 Index Technology Corporation,马萨诸塞州剑桥。(1987 – 1989 年)。研究工程师、产品规划、架构和研究组:算法设计。
本文讨论了一项研究计划,该计划旨在研究如何使用人工智能 (AI) 技术来辅助开发用于视距内 (WVR) 空战的战术决策生成器 (TDG)。本文介绍了人工智能编程和问题解决方法在第二代 TDG 计算机化空对空作战模拟逻辑 (CLAWS) 的开发和实施中的应用。本文详细介绍了 CLAWS 用于辅助战术决策过程的知识库系统,并介绍了用于评估 CLAWS 与使用 FORTRAN 开发的用于在兰利差分机动模拟器 (DMS) 中实时运行的基线 TDG 的性能的测试结果。到目前为止,这些测试结果显示,在一对一空战中,与 TDG 基线相比,其性能有显著提升,而且事实证明,基于人工智能的 TDG 软件比基线 FORTRAN TDG 程序更容易修改和维护。讨论了替代计算环境和编程方法,包括使用并行算法和异构计算机网络,并介绍了原型并发 TDG 系统的设计和性能。
给定一个闭二维流形或曲面上的大小为 L 的环或更一般的 1-循环 r(用三角网格表示),计算拓扑学中的一个问题是它是否与零同源。我们在量子环境中构建和解决这个问题。给定一个可以用来查询闭曲线上边的包含情况的 oracle,我们设计了一个用于这种同源性检测的量子算法,相对于环 r 上边的大小或边数,其运行时间为常数,只需要使用一次 oracle。相比之下,经典算法需要使用 Ω( L ) oracle,然后进行线性时间处理,并且可以通过使用并行算法将其改进为对数时间。我们的量子算法可以扩展以检查两个闭环是否属于同一个同源类。此外,它可以应用于同伦检测中的一个特定问题,即检查闭二维流形上的两条曲线是否不是同伦等价的。