随着边缘计算平台变得更加广泛,新公司加入了该领域,因此很难知道在任何特定情况下要使用哪个平台。这些系统通常包含一系列不同的计算体系结构和不同的硬件加速技术,这在选举时可能会令人困惑,以将它们整合为较大设计中的硬件加速器。由于这些平台的效率,它们通常可以为机器人技术和其他领域提供创造性的解决问题的方法,在这种情况下,很久以前的计算在边缘上并不常见。本文深入研究了领先的硬件加速器,分析了三个平台的性能和功率使用:KRIA KV260,Jetson Nano和RTX 3060。实验是使用两个神经网络模型-Resnet-50进行的,并进行了YOLO训练以进行图像识别任务。与其他平台相比,我们的发现在每瓦的推理速度方面强调了基于FPGA的平台的效率。
Xilinx ® Kria™ KV260 Vision AI 入门套件由非量产版 K26 系统级模块 (SOM)、载卡和散热解决方案组成。SOM 非常紧凑,仅包含关键组件,例如基于 Zynq ® UltraScale+™ MPSoC 的硅片器件、内存、启动和安全模块。载卡允许各种接口选项,并包括电源解决方案和用于摄像头、显示器和 microSD 卡的网络连接器。散热解决方案具有散热器、散热器盖和风扇。Kria KV260 Vision AI 入门套件旨在为客户提供一个平台来评估他们的目标应用,并最终使用 Xilinx K26 SOM 设计自己的载卡。虽然 SOM 本身在各个市场和应用中具有广泛的 AI/ML 适用性,但 Kria KV260 Vision AI 入门套件的目标应用包括智能城市和机器视觉、安全摄像头、零售分析和其他工业应用。
© 版权所有 2021 Xilinx, Inc. Xilinx、Xilinx 徽标、Artix、ISE、Kintex、Spartan、Virtex、Vivado、Zynq 和本文包含的其他指定品牌是 Xilinx 在美国和其他国家/地区的商标。AMBA、AMBA Designer、ARM、ARM1176JZ-S、CoreSight、Cortex 和 PrimeCell 是 ARM 在欧盟和其他国家/地区的商标。PCIe 和 PCI Express 是 PCI-SIG 的商标,经许可使用。所有其他商标均为其各自所有者的财产。在美国印刷。SF0421
摘要 随着人工智能 (AI) 和机器学习 (ML) 算法的不断进步,许多高计算应用程序现在都部署在边缘设备上。因此,需要一种高效的硬件,既能高效执行复杂算法,又能适应这项技术的快速改进。Xilinx® Kria™ K26 SOM 旨在满足在边缘设备上高效执行 ML 应用程序的需求。在本白皮书中,研究了各种 ML 模型和实时应用程序的性能,并将其与 Nvidia Jetson Nano 和 Nvidia Jetson TX2 进行了比较。Xilinx 的结果显示,K26 SOM 的性能优势大约是 Nvidia Jetson Nano 的 3 倍。与 Nvidia Jetson TX2 相比,它的性能/瓦特优势也超过 2 倍。K26 SOM 的低延迟和高性能深度学习处理单元 (DPU) 比 Nano 提供了 4 倍或更大的优势,并且具有 SSD MobileNet-v1 等网络,使 Kria SOM 成为开发 ML 边缘应用程序的理想选择。