AE 223 静力学** 无等效课程 3 AE 227 工程数字计算 无等效课程 3 AE 324 大气飞行基础** 无等效课程 3 AE 333 材料力学** 无等效课程 3 AE 373 动力学** 无等效课程 3 AE 415 空间动力学简介 无等效课程 3 仅限秋季。AE 424 空气动力学 I 无等效课程 3 AE 502 航空推进 I 无等效课程 3 仅限春季。AE 512 航空航天方法练习 无等效课程 3 AE 514 飞行动力学与控制 无等效课程 3 仅限春季。AE 524 空气动力学 II 无等效课程 3 AE 525 飞行结构 I 无等效课程 3 仅限秋季。AE 528 航空航天设计 I 无等效课程 3 仅限秋季。 AE 607 飞行控制系统 无同等课程 3 仅限秋季。AE 625 飞行结构 II 无同等课程 3 仅限春季。AE 628 航空设计 II 无同等课程 3 仅限春季。技术选修课 - 所有课程必须为 AE 课程且来自已批准的列表。12
当前的网络功能在固定的编程规则上很大程度上建立,并且缺乏支持更具表现力的学习模型的能力,例如使用神经形态计算的脑启发的认知计算模型。造成这种缺点的主要原因是基于TCAM基于TCAM的数字数据包处理器的巨大能源消耗和限制。在这项研究中,我们表明,来自模拟领域的最新新兴技术具有很高的潜力,可以以能效和表现力,所谓的认知功能支持网络功能。我们建立了一个名为Memristors的新技术,建立了一个模拟数据包处理架构。我们开发了一种新颖的模拟匹配性记忆,称为概率内容 - 可寻址内存(PCAM),用于支持确定性和概率匹配函数。我们开发了程序抽象,并显示了PCAM对基于队列管理的模拟网络功能的支持。对回忆录芯片的实验数据集的分析仅显示0。01 fj/bit/能量消耗的单元,用于响应模拟计算,比数字计算少50倍。
摘要 - 受到脑启发的神经形态综合的价值在很大程度上取决于我们为它们编程相关任务的能力。目前,神经形态硬件通常依赖于从深度学习中适应的机器学习方法。但是,如果我们只能利用其能源效率和充分的计算能力,神经形态计算机的潜力远远超出了深度学习。神经形态编程实际上将与传统的编程不同,这需要我们对编程的看法进行范式转移。本文在神经形态计算的背景下介绍了编程的概念分析,挑战常规范式,并提出了一个框架,该框架与这些系统的物理复杂性更加紧密地保持一致。我们的分析围绕着五个特征,这些特征是Neumorphic编程的基础,并为当代编程方法和语言进行了比较提供了基础。通过研究过去的方法,我们贡献了一个框架,该框架提倡未充分利用的技术,并要求更丰富的抽象有效地启动新的硬件类。索引术语 - 数字计算,脑启发的comporting,硬件软件共同设计,编程技术
13:20-14:10 使用模拟内存计算加速 AI Stefano Ambrogio (IBM 研究) 摘要:过去十年见证了 AI 在各种领域的广泛传播,从图像和视频识别和分类到语音和文本转录和生成。总体而言,我们观察到人们不断追求具有大量参数的大型模型。这导致计算工作量急剧增加,需要多个 CPU 和 GPU 来训练和推理神经网络。因此,硬件的改进变得越来越重要。为了适应改进的性能,内存计算提供了一个非常有趣的解决方案。虽然数字计算核心受到内存和处理器之间数据带宽的限制,但内存中的计算避免了权重转移,从而提高了功率效率和速度。演讲将描述一个总体概述,重点介绍我们自己的 14 纳米芯片,该芯片基于 34 个相变存储器技术交叉阵列,总共约有 3500 万个设备。我们在选定的 MLPerf 网络中展示了这种架构的效率,表明 Analog-AI 可以提供优于数字核心的功率性能,同时具有相当的准确性。然后,我们为开发可靠、高效的 Analog-AI 芯片的下一步提供了指导方针,特别关注实现更大、更完善的深度神经网络所需的架构约束和机会。
摘要:数字机器智能从最初的数字计算形式发展到人工智能,其核心是执行人类可以执行的认知任务,例如预测推理或复杂计算。最先进的技术包括可以通过一系列正式的数学规则或一系列事件驱动的操作轻松描述的任务,例如建模、模拟、业务工作流、与设备的交互等,以及易于“直观”完成但难以正式描述或作为一系列事件驱动的操作的任务,例如识别口语或面孔。虽然这些任务令人印象深刻,但它们在将常识推理应用于新情况、填补信息空白或理解和应用不成文的规则或规范方面存在不足。人类智能使用联想记忆和事件驱动的交易历史来快速理解他们所观察到的内容,以便在他们仍在观察时对其进行处理。除了这种认知能力之外,所有生物系统都表现出自创生和自我调节。在本文中,我们展示了如何增强机器智能,使其包括联想记忆和事件驱动的交易历史,从而创建一类新的基于知识的助手来增强人类智能。数字助理使用从大型语言模型中获得的全局知识来弥合相互交互的各个参与者之间的知识差距。我们使用信息的一般理论和基于模式的知识表示来创建交互中涉及的各种交易的记忆和历史记录。
人工智能 (AI) 是一组快速发展的颠覆性技术,正在彻底改变与人、商业、社会和环境相关的各个方面。随着数字计算设备的普及和大数据的出现,人工智能正日益为社会和商业组织提供重要机遇。学者和从业者对人工智能的兴趣日益浓厚,导致在主要研究机构发表的大量学术文献中探讨的研究主题多种多样。本研究旨在绘制《技术预测与社会变革》(TF & SC)上发表的整体人工智能研究的知识结构和概念结构的演变。本研究使用基于机器学习的结构主题模型 (STM) 从人工智能研究文献中提取、报告和可视化潜在主题。此外,还研究了人工智能研究知识结构中的学科模式,并额外评估了人工智能的学科影响。主题建模的结果揭示了八个关键主题,其中医疗保健、循环经济和可持续供应链、消费者采用人工智能以及人工智能用于决策的主题多年来呈上升趋势。人工智能研究对商业、管理和会计、社会科学、工程、计算机科学和数学等学科有着重大影响。该研究基于循证研究方向,为未来提供了富有洞察力的议程,将有利于未来的人工智能学者发现当代研究问题并开展有影响力的研究来解决复杂的社会问题。
摘要 - 次数不受约束的二进制优化(QUBO)问题成为一种有吸引力且有价值的优化问题,因为它可以轻松地转换为各种其他组合优化问题,例如图形/数字分区,最大值,SAT,SAT,Vertex,Vertex,Vertex,TSP,TSP等。其中一些问题是NP-HARD,并广泛应用于行业和科学研究中。同时,已经发现Qubo与两个新兴的计算范式,神经形态计算和量子计算兼容,具有巨大的潜力,可以加快未来的优化求解器。在本文中,我们提出了一种新型的神经形态计算范式,该计算范式采用多个协作尖峰神经网络来解决QUBO问题。每个SNN进行局部随机梯度下降搜索,并定期分享全球最佳解决方案,以对Optima进行元效力搜索。我们模拟了模型,并将其与无协作的单个SNN求解器和多SNN求解器进行比较。通过对基准问题的测试,提出的方法被证明在寻找QUBO Optima方面更有效。具体来说,它在无协作和单SNN求解器的情况下分别在多SNN求解器上显示X10和X15-20加速。索引术语 - 数字计算,尖峰神经网络作品,组合优化,QUBO
我们将考虑数字计算,因此我们有兴趣计算整数值x的整数值f(x)。这是实际计算机执行的操作。正如我们将看到的,可以将功能视为逻辑操作(和,或,不等等的组合);具有实际数字的有限优先操作也可以通过这种方式来表示,通过将实际数字的小数扩展为某些整数。计算是评估给定函数f(x)的某些过程。我们将通过电路图使用计算的抽象模型。这是函数f(x)的图形表示,它是通过一组简单的基本操作来构建的。这捕获了实际计算机操作模式的某些功能,尽管特定功能A给定电路计算是固定的,而可编程计算机可以计算我们输入程序指定的任何函数。电路模型不应过于从字面上看作为物理计算机的描述,而应作为理解如何从更简单的操作中构建所需功能的一种抽象方式。我们在这里介绍此内容主要是因为我们将在讨论量子计算的讨论中大量使用类似的图形表示。我们要代表整数x的整数值函数。我们用二进制表示法表示x,作为一串x n -1 x n -2。。。x 0。这是一个位置符号,因此不同的位乘以2的功率;这意味着
优先于其他。大多数科学家可能同意,他们宁愿花时间做科学研究,也不愿担心词语含义的争论。然而,计算和神经科学的哲学家们更乐意担心词语的含义;不是因为它本身很有趣,而是因为它可以阐明我们在仔细思考和有效交流大脑时提出的假设。这在认知科学、计算机科学、神经科学等跨学科领域尤其重要,在这些领域,审问我们的概念可以成为一种富有成效的方式,让来自不同领域的研究人员走到一起,避免各说各话。这里将论证大脑可能是字面意义上的计算机,而不仅仅是比喻意义上的计算机。这需要经验标准来确定什么使物理系统成为计算系统。这些标准超越了理论计算机科学的概念和数学资源;这里将开发一组候选标准。有了这些标准,我们将看到大脑如何成为一台真正的计算机,尽管可能不是一台数字计算机。这里概述的物理计算说明既显示了不同类型的计算(例如数字、模拟和其他类型)的不同之处,也显示了它们都算作真正的计算类型的原因。综合起来,这些考虑表明大脑可以真正地进行计算,而它是否这样做则是一个经验性的说法。此外,虽然模拟计算是一种真正的计算类型,但它与数字计算在神经科学家、认知科学家和理论计算机科学家看来存在一些不明显的不同。我们将讨论其中一些差异。
摘要 — 本研究展示了一种可编程的内存计算 (IMC) 推理加速器,用于可扩展执行神经网络 (NN) 模型,利用高信噪比 (SNR) 电容模拟技术。IMC 加速计算并减少矩阵向量乘法 (MVM) 的内存访问,这在 NN 中占主导地位。加速器架构专注于可扩展执行,解决状态交换的开销以及在高密度和并行硬件中保持高利用率的挑战。该架构基于可配置的片上网络 (OCN) 和可扩展内核阵列,将混合信号 IMC 与可编程近内存单指令多数据 (SIMD) 数字计算、可配置缓冲和可编程控制集成在一起。这些内核支持灵活的 NN 执行映射,利用数据和管道并行性来解决跨模型的利用率和效率问题。介绍了一种原型,它采用了 16 nm CMOS 中演示的 4 × 4 核心阵列,实现了峰值乘法累加 (MAC) 级吞吐量 3 TOPS 和峰值 MAC 级能效 30 TOPS/W,均为 8 位操作。测量结果表明模拟计算具有很高的精度,与位真模拟相匹配。这实现了稳健且可扩展的架构和软件集成所需的抽象。开发的软件库和 NN 映射工具用于演示 CIFAR-10 和 ImageNet 分类,分别采用 11 层 CNN 和 ResNet-50,实现了 91.51% 和 73.33% 的准确度、吞吐量和能效、7815 和 581 图像/秒、51.5 k 和 3.0 k 图像/秒/W,具有 4 位权重和激活。