详细内容或原文请订阅后点击阅览
思科展示了用于部署人工智能解决方案的服务器和基础设施块
该公司认为,它们的使用应该会降低进入人工智能世界的门槛。
来源:OSP网站大数据新闻思科展示了在联合计算系统 (UCS) 概念框架内创建的 UCS C885A M8 服务器,以及适用于特定人工智能用例的 AI Pods 基础设施块。
据思科称,这款机架式服务器采用 8U 外形,专为性能密集型人工智能工作负载而设计。此类工作负载包括训练大型语言模型、对其进行微调、为大型模型生成逻辑推理以及支持检索增强生成 (RAG)。
UCS C885A M8 基于 Nvidia HGX GPU 平台,该平台是两家公司于 2024 年达成协议的结果。
该服务器最多可容纳 8 个 Nvidia H100 和 H200 Tensor Core 或 AMD MI300X OAM GPU,以增强 AI 网络的性能。还有 Nvidia BlueField-3 DPU,可以加快 GPU 对服务器集群中信息的访问速度。据 Nvidia 称,Nvidia HGX 平台支持一系列网络选项,包括通过 Nvidia Quantum-2 InfiniBand 或 Spectrum-X 以太网解决方案实现 400 Gbps。
为了管理 UCS C885A M8,使用了 Cisco Intersight 软件系统,该软件系统作为 SaaS 软件包提供,用于从单个中心管理服务器和其他 IT 基础设施对象。
思科认为,新服务器将与最近发布的 800 Gb Nexus 9364E-SG2 交换机结合使用。该公司称这些交换机的端口速度为 100 至 400 Gbps,并支持高速开放系统外形规格 Plus (OSPF) 和四路小型可插拔双密度 (QSPF-DD) 光纤网络接口,是可扩展的基础AI集群的网络基础设施。
UCS C885A M8 服务器预计将于 2024 年底交付,思科 AI Pod 的订单将于 11 月开始。