加州大学洛杉矶分校材料科学与工程系任职。直到最近,他被任命为美国商务部国家先进封装制造计划主任,在那里他为国家封装势在必行奠定了基础战略。他是异构集成和性能扩展中心 (UCLA CHIPS) 的创始主任。在此之前,他是 IBM 研究员。他的主要技术贡献是开发了世界上第一个 SiGe 基 HBT、Salicide、电子保险丝、嵌入式 DRAM 和 45nm 技术节点,用于制造第一代真正低功耗便携式设备以及第一个商用中介层和 3D 集成产品。自加入加州大学洛杉矶分校以来,他一直在探索新的封装范例和设备创新,这些范例和设备创新可能实现晶圆级架构、内存模拟计算和医学工程应用。他是 IEEE、APS、iMAPS 和 NAI 的研究员,也是 IEEE EDS 和 EPS 的杰出讲师。他是孟买印度理工学院的杰出校友,2012 年荣获 IEEE 丹尼尔·诺布尔新兴技术奖章,2020 年荣获 iMAPS 丹尼尔·C·休斯 Jr 纪念奖,2021 年荣获 iMAPS 杰出教育家奖。Iyer 教授还是班加罗尔印度理工学院 Ramakrishna Rao 教授客座教授。业余时间,Subu 会学习梵文。
大脑是一个重达 3 磅、可以轻松握在手掌中的组织,它具有固有的计算复杂性,这一直激励着人们努力为具有大脑某些卓越特性的机器背书。具有讽刺意味的是,尽管大脑与模拟或数字计算机共享关键概念,但与模拟或数字计算机相比,大脑的计算方式却独树一帜。大脑采用模拟计算,但通过脉冲进行数字通信,这两种方式都提高了对噪声的鲁棒性。这种独特的组合定义了一种我们刚刚开始探索的新型计算范式。神经形态系统成为增长最快的应用之一的原因不仅仅是科学,而主要是技术。50 年来,指导计算的原理一直是摩尔定律,这是一个宏观观察,我们将始终找到方法来设计更快、更小、更便宜的芯片。但有几个原因导致摩尔定律不再适用。首先是物理学:随着我们将晶体管缩小到接近原子尺度,调节电子流变得越来越困难。电子不一定遵循牛顿物理学,可能会穿过晶体管屏障,这种现象称为量子隧穿。这使我们的计算机架构效率低下。其次,我们早就接受了计算速度更快和功耗更低之间存在权衡这一事实,但直到我们开始接近制造晶体管的物理极限,这才成为问题。而摩尔定律的最后一颗钉子是由深度学习打下的。我们的
摘要:欧洲的脱碳目标推动了高性能建筑的设计,最大限度地利用可再生能源。因此,欧洲 RED II 指令和意大利法律提高了新建筑和重大翻修所需的最低可再生能源份额。目前,可再生能源比率 (RER) 用于强制性验证,通过每月准稳态计算获得,而许多科学文献使用自耗系数 (SCF) 和负载覆盖系数 (LCF),通常通过动态模拟计算。然而,使用月度余额意味着通过净计量机制将国家电网用作虚拟电池。在没有昂贵的电力存储的情况下,可再生能源覆盖的实际份额必然会更低。不同指数之间的联系、计算中使用的时间基准的影响以及建筑物实现的实际可再生能源份额(也考虑监管验证框架中没有的插头负载)仍然是悬而未决的问题。本研究分析了在以供暖为主的气候条件下,即特伦托市山区,新建建筑可实现的实际可再生能源份额。通过对建筑和能源系统进行耦合动态模拟,评估可再生能源份额。结果表明,在没有和有额外家用电器负载的情况下,从月度平衡切换到瞬时平衡时,RER 分别下降 13% 和 15%。同样,模拟显示了时间间隔基数如何影响 RER 指数和光伏能源 LCF 之间的差异。
神经形态计算代表了人工智能的一种变革性方法,利用大脑启发式架构来提高能源效率和计算性能。本文探讨了神经形态系统背后的原理和创新,这些系统模仿了生物大脑的神经结构和过程。我们讨论了这些架构在处理信息方面比传统冯·诺依曼模型更高效的优势,特别是在涉及模式识别、感官处理和自适应学习的任务中。通过将神经科学的概念与尖端硬件开发(例如脉冲神经网络和忆阻器)相结合,神经形态计算解决了人工智能应用中功耗和可扩展性的关键挑战。本综述重点介绍了最近的进展、正在进行的研究工作以及潜在的未来方向,说明了神经形态计算如何通过使系统不仅更快、更高效,而且还能够在动态环境中进行实时学习和决策来重新定义人工智能的格局。关键词:神经形态计算、节能人工智能、脑启发式架构、人工智能、神经网络、脉冲神经网络、低功耗计算、类脑处理、认知计算、硬件加速、机器学习、模拟计算、并行处理、自适应学习、边缘计算、生物启发系统、智能传感器、计算神经科学、突触处理、机器人应用、事件驱动计算、神经形态芯片、高效算法、弹性系统、自组织网络。
摘要对应对“大数据”的需求不断增长(基于或在人工智能的协助下),以及对更完全理解大脑的运作的兴趣,刺激了欧特的启用,以构建来自廉价的常规组件的生物学模拟计算系统,并构建neurol od eare die earo earo earo neuro-neuro-morphic systems)计算系统。在一侧,这些系统需要异常数量的处理器,这引入了性能限制和非局部缩放。在另一侧,神经元操作与常规工作负载差异很大。The conduction time (transfer time) is ignored in both in conventional computing and ”spatiotemporal” compu- tational models of neural networks, although von Neu- mann warned: ” In the human nervous system the con- duction times along the lines (axons) can be longer than the synaptic delays, hence our above procedure of ne- glecting them aside of τ [the processing time] would be unsound ” [1], section 6.3。仅这种区别就可以模仿技术实施中的生物学行为。此外,计算中最近的问题引起了人们对时间行为的关注,即时间行为也是计算系统的一般特征。已经注意到了他们在生物系统和技术系统中的某些影响。在这里建议的转移时间正确处理,而不是引入一些“外观”模型。基于Minkowski变换引入时间逻辑,给出了定量洞察
最新的技术进步使我们能够将化学质量成分系统视为模拟计算机。在这种情况下,计算的输入被编码为某些化学物种的初始值,而输出是其他化学物种的限制值。在本文中,我们设计了进行基本算术计算的化学系统:识别,反转,中根(对于m≥2),加法,乘法,绝对差异,对非负实数的实际减法以及对实际数量的部分差异。我们证明这些“基本模块”具有与计算输入无关的计算速度。此外,我们证明,并行运行的此类基本模块的有限序列可以对实数进行复合算术,也可以以独立于输入的速率进行。此外,我们表明复合计算的速度正是最慢的基本步骤的速度。特别是复合计算的比例,即复合材料中涉及的基本步骤的数量不会影响整体渐近速度 - 我们算法的平行计算本质的特征。我们的证明需要对某些非自主系统进行仔细的数学分析,我们认为该分析将在应用数学,动力学系统和计算理论的不同领域有用。我们将讨论未来的研究方向进行讨论,其中包括与反应网络计算领域有关的许多重要的开放理论问题。关键字:模拟计算,使用化学计算,多项式动力学系统,无独立的计算速度MSC:37N25,68N01,92B05
地下建筑的渗漏会导致软粘土中随时间而产生的沉降。在地质分层、地下水条件和土壤压缩性存在空间变异的城市地区,可能会发生差异沉降,从而对建筑物造成损坏。目前,损害评估方法依赖于一维公式进行沉降预测,无法代表异质环境中因水位下降而导致的沉降。因此,在本文中,我们提出了一种独立方法,将空间分布的非高斯沉降数据整合到区域范围内的早期建筑物损害评估中。然后,使用二维耦合水力学有限元模型和高级本构模型计算变形,以计算大面积的三维网格(沿 x 和 y 方向)随时间而产生的沉降。然后,根据这些绿地模拟计算建筑物损坏,并使用每个建筑物特定沉降剖面的常用损坏参数,并将其与损坏标准进行比较。该方法通过模拟下层(受限)含水层中孔隙压力下降 10 kPa 和 40 kPa 的情景,应用于瑞典哥德堡市中心的 215 栋建筑物。研究了几种情景,并评估了损坏参数与损坏标准之间的相关性。最后,进行了网格分辨率的敏感性研究,并根据观察到的损坏数据进行了验证。所提出的方法为大面积非高斯定居点的早期损坏评估提供了一种有效的方法,以便进一步调查和缓解措施可以针对损坏风险最高的建筑物和位置。
唐纳德·麦凯(Div)出生于1922年8月9日,他于1987年2月6日去世。他是国际知名的神经科学家,信息理论和大脑组织的作者,包括其哲学和神学含义。自1963年以来,他一直是生物控制论的男女编辑。Mackay教授于1943年毕业于圣安德鲁斯大学的自然哲学(物理)。在战时三年与金钟信号机构进行雷达研究工作之后,他曾继承伦敦国王学院的物理学讲师和读者。在1960年,他搬到了基特。在那里成立一个研究部门时,他使用信息科学的语言为他的团队组成,由生理学家,心理学家,物理学家和工程师组成,他们研究了大脑的感觉交流系统及其在失明和耳聋中的骚扰。他的兴趣广泛。他于1946年开始使用高速模拟计算机的工作,并研究了信息的测量。〜IE也对计算机和人脑之间的差异感兴趣,并于1951年在美国度过了一年的洛克菲勒研究员。这种经历,尤其是使他进行了重大研究,尤其是视力机制。他使用了心理物理学,神经和电生理学的技术。他在电子和高速模拟计算方面的专业知识使他能够开发出出色的显示和录制设备。唐纳德·麦凯(Div)发表了许多有关这些主题的书籍,以及关于人工智能和控制论的哲学研究,思想脑问题以及科学与基督教信仰之间的关系。他担任了许多讲座,并于1967年在剑桥举行了“机械宇宙中的行动自由”的演讲。
摘要 — 本研究展示了一种可编程的内存计算 (IMC) 推理加速器,用于可扩展执行神经网络 (NN) 模型,利用高信噪比 (SNR) 电容模拟技术。IMC 加速计算并减少矩阵向量乘法 (MVM) 的内存访问,这在 NN 中占主导地位。加速器架构专注于可扩展执行,解决状态交换的开销以及在高密度和并行硬件中保持高利用率的挑战。该架构基于可配置的片上网络 (OCN) 和可扩展内核阵列,将混合信号 IMC 与可编程近内存单指令多数据 (SIMD) 数字计算、可配置缓冲和可编程控制集成在一起。这些内核支持灵活的 NN 执行映射,利用数据和管道并行性来解决跨模型的利用率和效率问题。介绍了一种原型,它采用了 16 nm CMOS 中演示的 4 × 4 核心阵列,实现了峰值乘法累加 (MAC) 级吞吐量 3 TOPS 和峰值 MAC 级能效 30 TOPS/W,均为 8 位操作。测量结果表明模拟计算具有很高的精度,与位真模拟相匹配。这实现了稳健且可扩展的架构和软件集成所需的抽象。开发的软件库和 NN 映射工具用于演示 CIFAR-10 和 ImageNet 分类,分别采用 11 层 CNN 和 ResNet-50,实现了 91.51% 和 73.33% 的准确度、吞吐量和能效、7815 和 581 图像/秒、51.5 k 和 3.0 k 图像/秒/W,具有 4 位权重和激活。
纠缠已被认为是研究、描述和利用多个科学领域应用的关键特性 [1, 2]。它对于量子计算 [3] 以及某些量子通信方案 [4] 至关重要。此外,在过去十年中,纠缠理论中发展起来的概念已经应用于其他研究领域 [1]。因此,人们付出了巨大的努力来限定和量化纠缠 [2]。尽管在量子信息论的背景下进行了广泛的研究,但其详细表征和量化仍然是一项重大挑战。在上述量子信息论应用中,一组关键的状态是稳定器状态集 [5]。量子比特稳定态被定义为泡利群中最大交换算子集的唯一同时特征向量,其定义为泡利算子或恒等算子的张量积。这些状态可以高度纠缠,用于量子误差校正 [6]、基于测量的量子计算 [3] 和自我测试 [7],这些只是其中的几种应用。一些稳定态的纠缠特性已被研究 [5, 8]。此外,还开发了净化协议 [9]。稳定态还可用于证明通用量子计算与经典有效模拟计算之间的区别 [10]。鉴于所有这些应用都源于丰富的纠缠能力和这些状态的局部对称性,进一步研究纠缠特性和稳定器状态的局部对称性是必不可少的。可以说,深入了解这些特性将使人们能够识别多体纠缠的新应用。纠缠理论是一种资源理论,其中自由操作是经典通信 (LOCC) 辅助的局部操作。LOCC 是一种自然的、操作驱动的自由操作选择,因为纠缠被视为由不同、可能在空间上分离的各方共享的资源。这些各方可以对其状态份额进行局部操作,并可以将任何经典信息传达给其他各方 (LOCC),然后其他各方根据其状态操纵其系统。