在SNIA中,它们提高了这些工作量的传播的有效性 div>

Storage.AI项目的开始,其创始人是AMD,Cisco,Dell,IBM,Intel,Netapp和其他许多公司。

来源:OSP网站大数据新闻

专门从事存储技术和数据基础设施优化的行业组织SNIA宣布启动基于开放标准和非专有行业方法的Storage.AI项目,其目标是创建与AI工作负载相关的高效数据处理服务。

SNIA解释说,该项目旨在解决AI应用程序的数据传输问题,该问题与存储系统与GPU和AI加速器之间缺乏直接交互有关,从而导致大量中间环节的出现。

存储系统通常连接到不直接连接到 GPU 集群的网络。因此,每个 GPU 传输数据的请求都会经过 CPU,从而增加延迟并增加网络负载。来自存储系统的数据通过中央处理器的核心流入其内存,然后才流入图形处理器的内存。对于每个数据请求,所有这些都会重复。

存在专有解决方案 - Nvidia GPU Direct for Storage 和 AMD Infinity Storage,但到目前为止,还没有开放标准规范 GPU 对由不同制造商的设备组装的系统中的存储设备的直接访问。

GPU 直接访问标准将使存储系统能够将数据直接传输到其内存,而无需中央处理器的参与。使用 I/O 协议的 GPU 将能够请求和接收数据,将大规模并行处理能力与 I/O 系统的并行性相结合。

例如,它们最初包括 SDXI(智能数据加速器接口),它允许应用程序控制硬件将数据从内存移动到内存,绕过多层软件抽象。