详细内容或原文请订阅后点击阅览
Nvidia 希望从头到尾拥有您的 AI 数据中心
Nvidia 首席执行官表示,如果从他的公司购买所有部件,人工智能数据中心将更加高效、更加经济,并产生更多收入。
来源:ZDNet | 机器人新闻关注 ZDNET:将我们添加为 Google 上的首选来源。
ZDNET 的关键要点
Nvidia 本周在加利福尼亚州圣何塞举行的 GTC 会议上向媒体推荐的图像是一排 40 个矩形,代表各种数据中心服务器机架。没有标签,只有架子矗立着,就像莎士比亚全集的书架,或者更不祥的是,像一排士兵。
令人印象深刻的机架墙所隐含的信息是,Nvidia(如果还没有的话)最终将拥有数据中心从一端到另一端的所有处理能力。
另外:这个操作系统悄悄地为所有 AI 以及大多数未来的 IT 工作提供动力
在展会的舞台上,Nvidia 首席执行官黄仁勋在周一的主题演讲中宣布扩大公司的芯片和系统产品范围。现有的产品线包括 Vera CPU 芯片、Rubin GPU 芯片,现在,一种新型机架设备加入其中,用于超快速推理,称为 LPX。
专门用于 AI 推理的新机架
LPX 机架将于今年晚些时候上市,它由 Nvidia 设计的芯片组成,这些芯片使用了 Nvidia 于 12 月以 200 亿美元从人工智能初创公司 Groq 获得的知识产权。
经过改造的 Groq 方法在 Nvidia Groq 3 LPU 中实现,将在 LPX 中与 Rubin GPU 结合使用,以实现推理速度和可处理数据总量之间的最佳平衡。
Nvidia 超大规模和高性能计算主管 Ian Buck 在媒体预演中表示,Groq 3 LPU“可以将 GPU 的极限 FLOPS(每秒浮点运算)和 LPU 的带宽合而为一”。
另外:云攻击变得越来越快、越来越致命 - 这是您的最佳防御计划
