在低功耗边缘设备上运行的神经网络有助于在有限的基础设施下实现普适计算。当此类边缘设备部署在没有必要防护的传统和极端环境中时,它们必须具有容错能力才能可靠运行。作为一项试点研究,我们专注于将容错功能嵌入神经网络,提出一种新颖的选择性乘法累积零优化技术,该技术基于提供给神经网络神经元的输入值是否为零。如果值为零,则绕过相应的乘法累积运算。我们对优化技术的实施进行了使用 ∼ 14 MeV 中子的辐射测试活动,发现提出的优化技术将测试神经网络的容错能力提高了 1.78 倍。
2023 年 3 月 30 日 — 边缘 AI 的应用范围十分广泛,没有一刀切的解决方案。要在边缘设备中运行 AI 模型,系统开发人员可以……
复杂活动识别在老年人护理辅助中起着重要作用。然而,边缘设备的推理能力受到经典机器学习模型容量的限制。在本文中,我们提出了一种非侵入式环境传感系统,该系统可以检测多种活动并应用大型语言模型 (LLM) 来推理活动序列。这种方法有效地结合了边缘设备和 LLM,帮助老年人进行日常活动,例如提醒他们吃药或处理跌倒等紧急情况。基于 LLM 的边缘设备还可以作为与老年人互动的界面,尤其是有记忆问题的老年人,帮助他们的日常生活。通过部署这样的系统,我们相信智能传感系统可以提高老年人的生活质量并提供更有效的保护。
Hailo-8R 独特、强大且可扩展的结构驱动数据流架构充分利用了神经网络的核心特性。它使边缘设备能够比传统解决方案更高效、更有效、更充分地全面运行深度学习应用程序,同时显著降低成本。
物联网 (IoT) 系统与任何电子或机械系统一样,容易发生故障。由于老化和退化导致的硬件硬故障尤其重要,因为它们是不可恢复的,需要维修更换有缺陷的部件,成本很高。在本文中,我们为物联网边缘计算系统提出了一种新颖的动态可靠性管理 (DRM) 技术,以满足服务质量 (QoS) 和可靠性要求,同时最大限度地提高边缘设备电池的剩余能量。我们制定了一个具有电池能量目标、QoS 和终端可靠性约束的状态空间最优控制问题。我们将问题分解为低开销子问题,并使用分布在边缘设备和网关上的分层和多时间尺度控制方法来解决它。我们的结果基于实际测量和跟踪驱动的模拟,表明所提出的方案可以实现与最先进方法类似的电池寿命,同时满足可靠性要求,而其他方法则无法做到这一点。
摘要 随着人工智能 (AI) 和机器学习 (ML) 算法的不断进步,许多高计算应用程序现在都部署在边缘设备上。因此,需要一种高效的硬件,既能高效执行复杂算法,又能适应这项技术的快速改进。Xilinx® Kria™ K26 SOM 旨在满足在边缘设备上高效执行 ML 应用程序的需求。在本白皮书中,研究了各种 ML 模型和实时应用程序的性能,并将其与 Nvidia Jetson Nano 和 Nvidia Jetson TX2 进行了比较。Xilinx 的结果显示,K26 SOM 的性能优势大约是 Nvidia Jetson Nano 的 3 倍。与 Nvidia Jetson TX2 相比,它的性能/瓦特优势也超过 2 倍。K26 SOM 的低延迟和高性能深度学习处理单元 (DPU) 比 Nano 提供了 4 倍或更大的优势,并且具有 SSD MobileNet-v1 等网络,使 Kria SOM 成为开发 ML 边缘应用程序的理想选择。
在可以将Varia设备设置与边缘设备自定义之前,必须配对设备(将自行车灯与边缘自行车计算机配对,第6页)。1从传感器菜单中,选择灯光。2选择一个选项:•选择启用启用光网络。•选择网络选项>光模式以设置网络中所有灯光的光强度模式(光模式设置,第7页)。•选择网络选项>激活的光束在计时器启动或边缘设备打开时自动打开大灯。•选择网络选项>测试灯以检查网络中的每个灯是否正确设置(测试灯网络,第8页)。•选择网络选项>自动梁调整以根据速度自动调整大灯强度。在高速下使用高强度,并且低强度在低速下使用。•选择一个灯以查看设备信息并自定义网络中的每个灯(Light Network设置,第8页)。
超维计算 (HDC) 采用并行计算范式和高效学习算法,非常适合资源受限的人工智能 (AI) 应用,例如边缘设备。基于忆阻设备的内存计算 (IMC) 系统通过提供节能硬件解决方案对此进行了补充。为了充分利用忆阻 IMC 硬件和 HDC 算法的优势,我们提出了一种硬件算法协同设计方法,用于在忆阻片上系统 (SoC) 上实现 HDC。在硬件方面,我们利用忆阻交叉开关阵列固有的随机性进行编码,并采用模拟 IMC 进行分类。在算法层面,我们开发了硬件感知编码技术,将数据特征映射到超维向量中,从而优化了忆阻 SoC 内的分类过程。硬件实验结果表明语言分类任务的准确率为 90.71%,凸显了我们的方法在边缘设备上实现节能 AI 部署的潜力。
QED是一种集成的边缘设备,具有多个软件层(驱动程序,操作系统,嵌入式去耦,最终用户应用程序),能够通过在集成的OS上运行的Edge应用程序虚拟化电气设备(防护继电器,RTU,RTU,PMUS,电表浓度,路由器,调制件,调制件等)。
现代语言模型,例如来自变形金刚的双向编码器表示,已彻底改变了自然语言处理(NLP)任务,但在计算上是密集的,限制了它们在边缘设备上的部署。本文介绍了针对基于编码器的语言模型量身定制的节能加速器设计,使其可以集成到移动和边缘计算环境中。与Simba启发的语言模型的数据流相关的硬件加速器设计相比,使用近似固定点的乘数,并利用高带宽内存(HBM)来实现与硬件可靠的可扩展加速器Simba相比,可以显着提高计算效率,功耗,区域和延迟。与Simba相比,Axlam可实现九倍的能量减少,减少58%的面积和1.2倍的延迟,使其适合在边缘设备中部署。Axlan的能源效率为1.8顶/W,比事实高65%,这需要在硬件上实施语言模型之前对语言模型进行预处理。本文是主题问题的一部分,“未来安全计算平台的新兴技术”。