摘要 —本文介绍了一种突破性的数字神经形态架构,该架构使用混合信号设计方法创新地集成了脑代码单元 (BCU) 和基本代码单元 (FCU)。利用开源数据集和材料科学的最新进展,我们的研究重点是提高神经形态系统的计算效率、准确性和适应性。我们方法的核心在于协调数字系统的精度和可扩展性与模拟处理的稳健性和能效。通过实验,我们证明了我们的系统在各种指标上的有效性。BCU 的准确度达到 88.0%,功率效率达到 20.0 GOP/s/W,而 FCU 的准确度达到 86.5%,功率效率达到 18.5 GOP/s/W。我们的混合信号设计方法显著改善了延迟和吞吐量,实现了低至 0.75 毫秒的延迟和高达 213 TOP/s 的吞吐量。这些结果牢固地确立了我们的架构在神经形态计算中的潜力,为该领域的未来发展奠定了坚实的基础。我们的研究强调了混合信号神经形态系统的可行性及其在该领域发展中的前景,特别是在需要高效率和适应性的应用中。索引术语 — 神经形态计算、混合信号设计、大脑代码单元、基本代码单元。
云计算使个人和公司更容易获得大型计算和内存资源。然而,它也引发了人们对用户与远程云服务器共享的数据的隐私担忧。全同态加密 (FHE) 通过对加密数据进行计算为该问题提供了解决方案。不幸的是,所有已知的 FHE 构造都需要一个噪声项来确保安全,而且这种噪声在计算过程中会增加。要对加密数据执行无限制计算,我们需要执行一个称为引导的定期降噪步骤。此引导操作受内存限制,因为它需要几 GB 的数据。与未加密数据相比,这导致操作加密数据所需的时间增加了几个数量级。在这项工作中,我们首先对 CKKS FHE 方案中的引导操作进行了深入分析。与其他现有工作类似,我们观察到 CKKS 引导表现出较低的算术强度(<1 Op/byte)。然后,我们提出了内存感知设计 (MAD) 技术来加速 CKKS FHE 方案的引导操作。我们提出的 MAD 技术与底层计算平台无关,可以同样应用于 GPU、CPU、FPGA 和 ASIC。我们的 MAD 技术利用了几种缓存优化,可以实现最大限度的数据重用并执行操作的重新排序,以减少需要传输到/从主存储器的数据量。此外,我们的 MAD 技术包括几种算法优化,可减少数据访问模式切换的次数和昂贵的 NTT 操作。将我们的 MAD 优化应用于 FHE 可将引导算法强度提高 3 × 。对于逻辑回归 (LR) 训练,通过利用我们的 MAD 优化,现有的 GPU 设计可以在相同的片上内存大小下获得高达 3.5 × 的性能提升。类似地,现有的 ASIC 设计在 LR 训练和 ResNet-20 推理方面分别可获得高达 27 倍和 57 倍的性能提升,
儿童已经参与了技术共同设计流程已有几十年了。先前的研究提出了对儿童参与者的潜在好处,但研究没有就这些设计方法对参与这些过程的成年设计师的影响进行研究。,我们与18名成年人进行了回顾性的在线调查,他们与儿童专门针对儿童进行了共同设计。综合了有关其经验,学习和建议的回答。总的来说,参与者认为他们与孩子合作并听到他们的观点是个人和专业以及产品对儿童的可用性的有价值的经历。参与者还指出了一些用于共同设计过程的挑战或领域。未来工作的领域可能包括对这些经历对成年人的影响以及通过与儿童共同设计开发的技术的影响。
5. 列出下图中将一条线分成五等份时采取的两个步骤。 ___________________________________________________________________________________ ___________________________________________________________________________________ _____________________________________________________________________
ME816 润滑与轴承设计 ME817 实验应力分析 ME818 先进设计材料 ME819 聚合物复合材料力学 ME820 旋转系统动态分析 ME821 工程声学 ME822 板壳设计 ME823 疲劳设计 ME824 飞机结构设计 ME825 机器诊断 ME826 粘弹性材料力学 ME831 智能结构与材料 ME862 虚拟仪器 ME864 计算流体动力学 ME865 机器人:力学与控制 ME866 优化技术 ME867 产品设计与开发 ME869 传感器与执行器的理论与实践 ME870 生物力学与材料 ME871 机械系统与信号处理 ME872 机床设计
3 助理教授,ECE 系,DSCE,班加罗尔,卡纳塔克邦 4 M.Tech。项目指导,教授兼系主任,ECE 系,DSCE,班加罗尔,卡纳塔克邦 摘要 本文简要回顾了可用于 VLSI 设计技术的 AI/ML 算法和应用。由于分析和开发可能减少由扩大工艺变异性带来的设计复杂性并缩短芯片制造周转时间的技术显然将成为纳米领域集成电路 (IC) 行业的一个问题。用于这些活动的传统方法大多是手动的,这需要时间和资源。相反,由于人工智能 (AI) 独特的学习策略,超大规模集成 (VLSI) 设计和测试可以利用各种新的自动化方法。利用自动学习算法,AI 和机器学习 (ML) 算法减少了理解和处理不同抽象级别内和跨不同抽象级别数据所需的时间和精力,从而提高了 IC 产量并加快了生产周转时间。本文研究了以前用于 VLSI 设计和生产的自动化 AI/ML 方法。本文介绍的工作是 PG (M.Tech) 学生的技术研讨会报告,这是 PG 课程第二学期每个学生必须就任何主题进行的研讨会的一部分。关键词:VLSI、设计、CMOS、芯片、晶体管 1.简介在微电子领域,CMOS 技术长期占据主导地位。在单个芯片上,制造的晶体管数量急剧增加。由于晶体管经过多代技术不断缩小尺寸,这些设备的密度和性能得到了提高,这极大地促进了微电子产业的发展。现代超大规模集成 (VLSI) 技术使得在单个芯片上实现复杂的数字系统成为可能。随着晶体管尺寸变小,半导体制造工艺的复杂性增加。随着我们越来越接近原子尺寸,简单的缩放不可避免地会走到尽头。即使这些器件很小,其性能的几个方面也会随着时间的推移而下降,例如泄漏增加、增益降低以及对制造工艺波动的敏感性增加。制造差异的急剧增加严重影响了电路的功能,导致相同尺寸的晶体管性能不一致。这会影响电路的传播延迟,其表现为随机变量,使时序收敛程序更加困难,并大大降低芯片产量。设计流程中需要采用未来技术节点的经济实惠的设计和先进的设计技术进行更精细的优化,以保持 VLSI 系统的性能趋势,以应对工艺变化增加带来的日益严峻的挑战,设计复杂性和芯片集成度。电子设计自动化 (EDA) 工具在克服设计复杂性方面的有效性