摘要 — 本文介绍了一种具有自定义指令集架构的嵌入式可编程处理器的设计和实现,用于高效实现人工神经网络 (ANN)。ANN 处理器架构可扩展,支持任意数量的层和每层人工神经元 (AN) 数量。此外,该处理器支持具有任意 AN 间互连结构的 ANN,以实现前馈和动态循环网络。该处理器架构是可定制的,其中 AN 之间的输入、输出和信号的数值表示可以参数化为任意定点格式。本文介绍了一种设计的可编程 ANN 处理器的 ASIC 实现,用于具有多达 512 个 AN 和 262,000 个互连的网络,估计占用 2.23 mm2 的硅片面积,在 1.6 V 电源下以 74 MHz 运行,采用标准 32 nm CMOS 技术,功耗为 1.25 mW。为了评估和比较所设计的 ANN 处理器的效率,我们设计并实现了专用的可重构硬件架构,用于直接实现 ANN。本文介绍了所设计的可编程 ANN 处理器和 Xilinx Artix-7 现场可编程门阵列 (FPGA) 上的专用 ANN 硬件的特性和实现结果,并使用两个基准进行了比较,即使用前馈 ANN 的 MNIST 基准和使用循环神经网络的电影评论情绪分析基准。
物理计算元素的响应时间是有限的,神经元也不例外。在皮质网络的分层模型中,每层都引入了响应滞后。物理动力学系统的这种固有属性导致刺激的处理延迟,并导致网络输出和启发性信号之间的时机不匹配,因此不仅会推断,而且还可以学习。我们引入了潜在平衡,这是一个慢速组件网络中推断和学习的新框架,通过利用生物神经元的能力来避免这些问题,以相对于其内存潜力进行输出。该原理可以独立于网络深度,可以实现准稳定推断,并避免需要分阶段可塑性或计算昂贵的网络松弛阶段。我们从依赖网络的广义位置和动量的前瞻性能量函数中共同得出脱离神经元和突触动力学。所得模型可以解释为具有连续时间,泄漏的神经元动力学和连续的局部局部可塑性的深层皮质网络中误差反向传播的误差。我们展示了对标准基准数据集的成功学习,并使用完全连接和连接的体系结构来实现竞争性能,并展示了如何将我们的原理应用于皮质微电路的详细模型。此外,我们研究了模型对时空底物缺陷的鲁棒性,以证明其在体内或在硅中的物理实现的可行性。§
摘要 — 本文介绍了一种具有自定义指令集架构的嵌入式可编程处理器的设计和实现,用于高效实现人工神经网络 (ANN)。ANN 处理器架构可扩展,支持任意数量的层和每层人工神经元 (AN) 数量。此外,该处理器支持具有任意 AN 间互连结构的 ANN,以实现前馈和动态循环网络。该处理器架构是可定制的,其中 AN 之间的输入、输出和信号的数值表示可以参数化为任意定点格式。本文介绍了一种设计的可编程 ANN 处理器的 ASIC 实现,用于具有多达 512 个 AN 和 262,000 个互连的网络,估计占用 2.23 mm2 的硅片面积,在 1.6 V 电源下以 74 MHz 运行,采用标准 32 nm CMOS 技术,功耗为 1.25 mW。为了评估和比较所设计的 ANN 处理器的效率,我们设计并实现了专用的可重构硬件架构,用于直接实现 ANN。本文介绍了所设计的可编程 ANN 处理器和 Xilinx Artix-7 现场可编程门阵列 (FPGA) 上的专用 ANN 硬件的特性和实现结果,并使用两个基准进行了比较,即使用前馈 ANN 的 MNIST 基准和使用循环神经网络的电影评论情绪分析基准。
3.4.1.1.1 风车预制件结构。风车预制件的结构应与图 8-2-661 所示类似,但尺寸可能有所不同。每个风车应为一块连续的、完整的织物。为了便于成型预制件,风车可在风车 Cf311kr 的 2 1/2 英寸范围内切割,在任何方向上留下至少 5 英寸宽的未切割区域。每个风车上的腿不得超过八个,且尺寸大致相等。除了最内层或最外层预制件层之外,最多两个风车可以通过使用两个半风车连接在一起形成,最小 3 英寸乘 5 英寸的矩形,该矩形与风车所用的材料相同。5 英寸的尺寸应居中并与两个半风车的对接接头平行。这些分段风车层可位于预制件铺层内的任何位置。风车预制件应使用类似于图 8-2-661 的三个冠层组装,以便壳体的任何横截面积上织物层不少于 19 层。风车预制件应相互叠加,以使每层的间隙与所有其他层的间隙相抵消。当 16 个风车预制件正确成型并相互叠加时,可以使用它们获得所需的 19 层织物。风车预制件中的间隙宽度不得超过 3/32 英寸。不得有宽度超过 1/2 英寸的褶皱、皱纹或折痕。长度小于 1/2 英寸的任何褶皱、皱纹或折痕都应平滑。
巴西数据保护法 Lei Geral de Proteção de Dados Pessoais (LGPD) 旨在保护自由和隐私的基本权利以及人格的自由发展,同时以经济、技术发展和创新为基础。因此,技术创新必须与个人数据保护相协调。为了充分保护数据主体权利,有必要了解数据,特别是个人数据,在基于生成模型的人工智能中是如何处理的。生成方法不同于其他人工智能方法,因为它具有生成内容(数据)的能力,与判别方法相反,总之,判别方法允许系统学习如何根据所使用的数据做出决策。需要强调的是,人工智能这一表达目前用于指基于机器学习的人工智能系统。然而,人工智能是一个比机器学习更广泛的领域。就本文而言,这些术语将互换使用。为了更好地理解本文,有必要定义一些概念。第一个概念是人工智能,它可以定义为研究人工智能系统发展的人类知识领域。人工智能系统被定义为一种基于机器的系统,该系统针对明确或隐含的目标,从其接收的输入中推断如何生成输出,例如预测、内容、建议或决策。机器学习被定义为机器通过经验提高其执行任务的性能的能力,而深度学习是机器学习的一种变体,它使用多层以高精度解决更复杂的问题并在每层中转换数据。生成模型是一种能够通过采样生成新数据的概率模型,而提示被定义为用于向人工智能模型提供指令的文本输入。
摘要。紧凑型μ子螺线管 (CMS) 是欧洲核子研究中心大型强子对撞机 (LHC) 的通用探测器之一,它收集了大量的物理数据。在进行最终的物理分析之前,必须通过一系列自动(如物理对象重建、直方图准备)和手动(检查、比较和决策)步骤检查数据的质量(认证)。决策的最后一个手动步骤非常重要,容易出错,需要大量人力。决策(认证)目前正在计算机科学领域积极研究,以通过应用计算机科学的最新进展,特别是机器学习 (ML) 来实现自动化。归根结底,CMS 数据认证是一个二元分类任务,其中正在研究各种 ML 技术的适用性。就像任何其他 ML 任务一样,超参数调整是一个难题,没有黄金法则,每个用例都不同。本研究探索了元学习的适用性,它是一种超参数查找技术,其中算法从以前的训练实验中学习超参数。进化遗传算法已用于调整神经网络的超参数,如隐藏层数、每层神经元数、激活函数、辍学、训练批量大小和优化器。最初,遗传算法采用手动指定的超参数集,然后向接近最优解发展。应用遗传随机算子、交叉和变异来避免局部最优解。本研究表明,通过仔细播种初始解决方案,很可能会找到最优解。所提出的解决方案提高了用于 CERN CMS 数据认证的神经网络的 AUC 分数。类似的算法可以应用于其他机器学习模型的超参数优化。
摘要Burckhardt Compression Holding AG总部位于温特图尔,是一家具有国际活跃的往复式压力机制造商,在其Laby®往复式压缩机中使用三件式活塞。由于其铸造设计,活塞的重量很高,这限制了活塞的大小,特别是对于大直径。因此,正在寻找解决方案在轻质设计中使用金属添加剂制造工艺制作活塞,以抵消这些挑战。在各个科学和工业领域应用的减轻体重的创新技术之一是激光直接金属沉积(DMD)。因此,一个项目是从Burckhardt压缩开始的,以降低质量,从而实现更高的工作速度。这项研究提供了一个工作流程,可通过直接金属沉积(DMD)制造1.4313的轻质活塞,直径约为342 mm,高度为140 mm。活塞的特征是不同的片段,这些片段在传统上和附加性制造中以克服机器限制。活塞皇冠被连接到添加剂制造的部分,并由CO 2激光焊接密封。降低DMD的激光功率可降低温度,因此,锰和硅的氧化和降低载气流量可提高堆积速率,并降低了湍流诱导的氧化。每层交替的进料方向提高了几何准确性,并避免了在锋利的角落积累的材料。一种方法被发现在堆积方向上定量地表明半径的几何精度。选择了激光焊接的焊接类型和接缝以实现良好的力流;但是,需要夹紧装置。为了减少隐藏的T关节的缺口效应,考虑了双重焊接策略。该设计使40%的重量减轻,与铸件活塞相比,重量为40 kg,重量为24千克。的金理分析和3D扫描。该研究显示了DMD的局限性和挑战以及如何通过部分分割克服机器的局限性。
提交轨道 摘要 提交日期:2024 年 11 月 7 日 糖尿病是一种慢性代谢疾病,其特征是由于身体产生胰岛素的能力受损而导致血糖水平高(高血糖症)。根据国际糖尿病联合会 (IDF) 的数据,糖尿病患者的数量将在 2024 年迅速增加到 7 亿人。因此,我们需要找出感染糖尿病的诱因。其中之一是使用机器学习方法。机器学习用于对哪些因素可能导致感染糖尿病进行分类。进行这种分类的众所周知的方法之一是多层感知器 (MLP) 方法,它是一种由多层组成的人工神经网络 (ANN),其中每层都有相互连接的节点。它的优点是它能够处理复杂数据特征之间的非线性关系——包括患者数据和患者的疾病——因此据说这种方法与本研究非常相关。研究人员还将 MLP 的准确率与其他几种算法(如随机森林、支持向量机和 K-最近邻)进行了比较。这旨在评估 MLP 与其他方法相比在糖尿病分类中的有效性。此外,研究人员还希望克服传统方法在糖尿病分类中的弱点,并提供基于人工智能的解决方案,方法是利用 MLP 处理医疗数据并关注可能影响糖尿病患者的参数或特征。机器学习中的几种技术,如正则化和超参数优化可以防止过度拟合,数据规范化和降维可用于提高模型输入的质量,从而最大限度地提高准确率并使诊断过程更快、更准确。结果表明,与其他算法相比,MLP 在对该疾病进行分类方面具有良好的性能。MLP 获得更稳定、更高的结果。总体而言,可以说 MLP 的应用对改善糖尿病诊断系统做出了重大贡献,有望应用于医疗系统。
与传统的 2D 计算系统相比,超密集 3D 集成电路(3D IC),例如单片 3D IC(图 1),可以为数据密集型应用带来巨大的能量延迟积(EDP)优势 [1,2]。为了实现这些优势,需要将多层逻辑和存储器(例如,逻辑和/或存储器设备的薄层,以及相关的信号/全局金属布线)以 3D 形式集成,并使用有限长宽比的后端制程(BEOL)层间过孔(ILV)建立超密集(例如,间距 ≤ 100 纳米)垂直连接 [3]。现有的 BEOL 布线结构已经在使用这种纳米级 ILV。3D IC 变得至关重要,因为工艺技术小型化的根本限制使得传统的缩放路径更加困难。但是,必须克服重大的热挑战才能在多个 3D 层上实现高速和高功率计算引擎 [4-5]。如果没有新技术,未来 3D IC 的上层最高温度将大大超过可靠运行所需的上限(例如 [6] 中的 125°C)。我们使用图 1 中的单片 3D IC 来了解 3D 层中的温升和热耗散(详细分析见第 III 部分)。图 1 中的 N 层中的每一层都包含一层高速、高功率硅逻辑器件(例如,计算引擎)和由铜布线和超低κ 层间电介质 (ILD) 组成的 BEOL 层(例如,用于信号布线)。各层通过超密集 ILV 电连接。在某些设计中,每层还存在硅存储器、存储器访问设备和额外的 BEOL。3D IC 由附加的散热器进行外部冷却,散热器将产生的所有热量以散热器比传热系数 h(W/m 2 /K)散发到环境中。最高温度 T j 取决于散热器、环境温度和 N 层的热特性。散热器创新(如 [7])只需散热器上 10°C 的温升(即 h= 10 6 W/m 2 /K)即可消除 1000 W/cm 2 的热量,尽管
它将输出输入到第一个隐藏层,然后是第二个,最后到输出层(每层都由松散地由神经元建模的节点组成)。机器学习和深度学习都需要训练期,其中有两种不同类型:监督学习和无监督学习。监督学习利用标记数据,因此用于分类和回归,而无监督学习使用未标记数据,因此只能通过聚类和降维来识别模式。机器学习可用于放射学,识别特定病症或将图像分割成几部分。机器学习的一些应用方式包括通过超声(US)检测脂肪肝、通过计算机断层扫描(CT)表征颈动脉斑块以及通过定量冠状动脉CT血管造影预测病变特异性缺血[1,2]。在这种情况下应用机器学习有几个优点和缺点。机器学习可以处理大量数据并识别可能无法检测到的趋势和模式。然而,充分的训练需要大量高质量的数据集。而深度学习可以进行更复杂的分类以及自动特征提取和学习。人们经常使用涉及一定程度人为参与的混合策略。ANN 系统在历史上受到计算能力和训练数据不足的限制。然而,考虑到相对较新的技术和数学进步,以及大数据的可用性,ANN 系统正在重新评估其在医学成像中的应用 [1]。放射科医生一直处于医学技术的前沿,在引导 AI 融入医学方面处于领先地位 [2]。鉴于工作量增加,预测将 AI 融入放射科将协助放射科医生,而不是指导或取代放射科医生,使他们在患者护理中发挥更核心的作用,因为它可以通过图像分类和结果/风险预测提供诊断支持 [3,4]。本文献综述将提供人工智能在医学成像中的应用历史背景,强调人工智能在介入放射学中的应用方式,并承认医生在实施过程中可能面临的挑战。它还将提供克服这些问题的各种建议。