RowHammer (RH) 是现代 DRAM 芯片的一个重大且日益恶化的安全性、可靠性问题,可利用该问题来破坏内存隔离。因此,了解真实 DRAM 芯片的 RH 特性非常重要。遗憾的是,之前没有研究广泛研究现代 3D 堆叠高带宽内存 (HBM) 芯片的 RH 漏洞,而这种芯片通常用于现代 GPU。在这项工作中,我们通过实验表征了真实 HBM2 DRAM 芯片的 RH 漏洞。我们表明:1) HBM2 内存的不同 3D 堆叠通道表现出明显不同级别的 RH 漏洞(误码率相差高达 79%),2) DRAM 组末尾的 DRAM 行(具有最高地址的行)表现出的 RH 位翻转明显少于其他行,3) 现代 HBM2 DRAM 芯片实现了未公开的 RH 防御措施,这些措施由定期刷新操作触发。我们描述了我们的观察结果对未来 RH 攻击和防御的影响,并讨论了理解 3D 堆叠存储器中的 RH 的未来工作。
内存单元尺寸的不断减小提高了内存密度并降低了功耗,但也影响了其可靠性。Rowhammer 攻击利用这种降低的可靠性来诱导内存中的位翻转,而无需直接访问这些位。大多数 Rowhammer 攻击都以软件完整性为目标,但最近的一些攻击表明它可用于破坏机密性。延续这一趋势,我们在本文中观察到 Rowhammer 攻击与内存瞬时功耗密切相关。我们利用这一观察结果设计了 HammerScope,这是一种基于 Rowhammer 的攻击技术,用于测量内存单元的功耗。由于功耗与内存的活动水平相关,因此 HammerScope 允许攻击者推断内存活动。为了展示 HammerScope 的攻击能力,我们使用它发起了三次信息泄露攻击。我们首先展示了 HammerScope 可用于破坏内核地址空间布局随机化 (KASLR)。我们的第二次攻击使用内存活动作为 Spectre 攻击的隐蔽通道,使我们能够泄露操作系统内核的信息。最后,我们演示了如何使用 HammerScope 进行网站指纹识别,从而泄露用户隐私。我们的工作证明了找到 Rowhammer 攻击的系统解决方案的重要性。
戏剧的摘要:•马克和Jan讨论某人“死了”。利亚想要答案知道菲尔在想什么。•约翰·泰特(John Tate)显然受到压力,并试图用“死”一词禁止他人。他试图通过使用恐惧和威胁来保持对团队的控制。理查德威胁他的领导才能,但这被压制了。当Mark和Jan到达时,他们向小组解释了导致亚当陷入格栅的事件的版本。他们试图通过说他在笑来证明对他的恶性攻击。菲尔终于讲话并制定了一个计划,以构建一个不存在的人。•警察找到了一个适合菲尔(Phil)编造的男人的人,因为凯茜(Cathy)使用她的“倡议”找到了一个与描述相匹配的人。该计划出错了。Brian拒绝进入派出所,以确定正在构架的人。菲尔威胁他,如果他不走,就会被带到格栅。Brian走了。 •Jan和Mark揭示了Cathy在树林中“找到了某人”。 原来是亚当。 利亚带着一个包装的手提箱到达现场。 她试图通过威胁要离开并告诉他不要试图阻止她来引起菲尔的注意……他没有。 她向他介绍了亚当的纪念馆,并在电视上看到了凯茜。 •亚当还活着,一直生活在树篱中。 他通过死动物生存而幸存。 他显然怀疑头部受伤。 菲尔指示Jan,Mark和Lou离开而不说什么。 莉亚恳求他不要这样做。Brian走了。•Jan和Mark揭示了Cathy在树林中“找到了某人”。原来是亚当。利亚带着一个包装的手提箱到达现场。她试图通过威胁要离开并告诉他不要试图阻止她来引起菲尔的注意……他没有。她向他介绍了亚当的纪念馆,并在电视上看到了凯茜。•亚当还活着,一直生活在树篱中。他通过死动物生存而幸存。他显然怀疑头部受伤。菲尔指示Jan,Mark和Lou离开而不说什么。莉亚恳求他不要这样做。他向凯茜展示了如何通过将塑料袋绑在布莱恩的头上来杀死亚当。•利亚不说话。菲尔为她提供甜蜜,她吐出甜蜜的叶子,厌恶。菲尔大喊她。Jan和Mark揭示某人“走了”。这是莉亚。•理查德试图说服菲尔重新加入该小组。他试图以与利亚相似的方式吸引他的注意力。菲尔不会说话。他也不吃。理查德告诉他,小组其他成员发生了什么。
内存单元尺寸的不断减小提高了内存密度并降低了功耗,但也影响了其可靠性。Rowhammer 攻击利用这种降低的可靠性来诱导内存中的位翻转,而无需直接访问这些位。大多数 Rowhammer 攻击都以软件完整性为目标,但最近的一些攻击表明它可用于破坏机密性。延续这一趋势,我们在本文中观察到 Rowhammer 攻击与内存瞬时功耗密切相关。我们利用这一观察结果设计了 HammerScope,这是一种基于 Rowhammer 的攻击技术,用于测量内存单元的功耗。由于功耗与内存的活动水平相关,因此 HammerScope 允许攻击者推断内存活动。为了展示 HammerScope 的攻击能力,我们使用它发起了三次信息泄露攻击。我们首先展示 HammerScope 可用于破坏内核地址空间布局随机化 (KASLR)。我们的第二次攻击使用内存活动作为 Spectre 攻击的隐蔽通道,使我们能够从操作系统内核泄露信息。最后,我们演示了如何使用 HammerScope 进行网站指纹识别,从而危及用户隐私。我们的工作证明了找到 Rowhammer 攻击的系统解决方案的重要性。
单单元 DRAM 错误率的不断上升促使 DRAM 制造商采用片上纠错编码 (ECC),该编码完全在 DRAM 芯片内运行,以提高工厂产量。片上 ECC 功能及其对 DRAM 可靠性的影响被视为商业机密,因此只有制造商才知道片上 ECC 如何改变外部可见的可靠性特性。因此,片上 ECC 阻碍了第三方 DRAM 客户(例如测试工程师、实验研究人员),他们通常根据这些特性设计、测试和验证系统。为了让第三方准确了解片上 ECC 在错误校正过程中如何转换 DRAM 错误模式,我们引入了比特精确 ECC 恢复 (BEER),这是一种无需硬件工具、无需有关 DRAM 芯片或片上 ECC 机制的先决知识或无需访问 ECC 元数据(例如错误综合征、奇偶校验信息)即可确定完整 DRAM 片上 ECC 功能(即其奇偶校验矩阵)的新方法。BEER 利用了关键洞察,即使用精心设计的测试模式非侵入式地诱导数据保留错误会揭示特定 ECC 功能所独有的行为。我们使用 BEER 来识别来自三大 DRAM 制造商的 80 个带有片上 ECC 的真实 LPDDR4 DRAM 芯片的 ECC 功能。我们评估了 BEER 在模拟中的正确性和在真实系统上的性能,以表明 BEER 在各种片上 ECC 功能中都是有效且实用的。为了证明 BEER 的价值,我们提出并讨论了第三方可以使用 BEER 来改进其设计和测试实践的几种方法。作为一个具体的例子,我们介绍并评估了 BEEP,这是第一种错误分析方法,它使用已知的片上 ECC 功能来恢复导致可观察的后校正错误的不可观察的原始位错误的数量和位精确位置。1. 简介动态随机存取存储器 (DRAM) 是各种计算平台上系统主存储器的主要选择,因为它相对于其他存储器技术具有优惠的每位成本。DRAM 制造商通过提高设备代之间的原始存储密度来保持竞争优势。不幸的是,这些改进很大程度上依赖于工艺技术的扩展,这会导致严重的可靠性问题,从而降低工厂产量。DRAM 制造商传统上使用行/列备用等制造后修复技术来减少产量损失 [51]。然而,现代 DRAM 芯片技术的不断扩展需要更强大的错误缓解机制才能保持可行性,因为在较小的工艺技术节点上,随机单比特错误越来越频繁 [39,76,89,99,109,119,120,124,127,129,133,160]。因此,DRAM 制造商已经开始使用片上纠错编码(片上 ECC),它可以悄悄地纠正单比特错误
128MB 64M x 16 W3H64M16E-XB2X 400-667 1.8 79 PBGA 11 毫米 x 14 毫米 C、I、M 256MB 2 x 64M x 16 W3H264M16E-XB2X 400-667 1.8 79 PBGA 11 毫米 x 14 毫米 C、I、M 256MB 32M x 64 W3H32M64E-XBX 400-667 1.8 208 PBGA 16 毫米 x 20 毫米 C、I、M 256MB 32M x 72 W3H32M72E-XBX 400-667 1.8 208 PBGA 16 毫米 x 20 毫米 C、I、M 512MB 64M x 64 W3H64M64E-XBX 400-667 1.8 208 PBGA 16 毫米 x 20 毫米 C、I、M 512MB 64M x 72 W3H64M72E-XBX 400-667 1.8 208 PBGA 16 毫米 x 20 毫米 C、I、M 512MB 64M x 72 W3H64M72E-XBXF 400-667 1.8 208 PBGA 16 毫米 x 20 毫米 C、I、M 1GB 128M x 72 W3H128M72E-XSBX 400-667 1.8 208 PBGA 16 毫米 x 22 毫米 C、I、M 1GB 128M x 72 W3H128M72E-XNBX* 400-667 1.8 208 PBGA 16 毫米 x 22 毫米 C、I、M
摘要 — 在硬件加速器上运行大型深度神经网络 (DNN) 所消耗的能量主要来自需要大量快速内存来存储状态和权重。目前,只有通过 DRAM 才能经济地满足这种大型内存需求。尽管 DRAM 是高吞吐量和低成本内存(成本比 SRAM 低 20 倍),但其较长的随机访问延迟不利于脉冲神经网络 (SNN) 中不可预测的访问模式。此外,从 DRAM 访问数据比使用该数据进行算术运算消耗的能量高出几个数量级。如果有本地内存可用且产生的峰值很少,则 SNN 是节能的。本文报告了我们在过去 5 年中在卷积和循环深度神经网络硬件加速器方面的发展,这些加速器利用了与 SNN 类似的空间或时间稀疏性,但即使使用 DRAM 来存储大型 DNN 的权重和状态,也能实现 SOA 吞吐量、功率效率和延迟。
4GB 512M x 64 W3J512M64X-XPB2X 800-1600 K=1.35,G=1.5 543 PBGA 23 毫米 x 32 毫米 C、I、M 4GB 512M x 72 W3J512M72X-XPB2X 800-1600 K=1.35,G=1.5 543 PBGA 23 毫米 x 32 毫米 C、I、M 4GB 512M x 64 W3J512M64X-XLB2X 800-1600 K=1.35,G=1.5 543 PBGA 23 毫米 x 32 毫米 C、I、M 4GB 512M x 72 W3J512M72X-XLB2X 800-1600 K=1.35,G=1.5 543 PBGA 23 毫米 x 32 毫米 C、I、M 4GB 高清 512M x 64 W3J512M64X(T)-XHDX 800-1600 K=1.35,G=1.5 399 PBGA 14 毫米 x 21.5 毫米 C、I、M 4GB 高清 512M x 72 W3J512M72X(T)-XHDX 800-1600 K=1.35,G=1.5 399 PBGA 14 毫米 x 21.5 毫米 C、I、M 8GB 8GB x 64 W3J1G64X-XPBX 800-1600 K=1.35,G=1.5 543 PBGA 24 毫米 x 32 毫米 C、I、M 8GB 8GB x 72 W3J1G72X-XPBX 800-1600 K=1.35,G=1.5 543 PBGA 24 毫米 x 32 毫米 C、I、M