Nvidia 希望从头到尾拥有您的 AI 数据中心

Nvidia 首席执行官表示,如果从他的公司购买所有部件,人工智能数据中心将更加高效、更加经济,并产生更多收入。

来源:ZDNet | 机器人新闻

关注 ZDNET:将我们添加为 Google 上的首选来源。

ZDNET 的关键要点

  • 英伟达展示了五个机架的设备,涵盖了人工智能基础设施的各个方面。
  • Nvidia 认为,当所有部件都来自 Nvidia 时,AI 经济性会更好。
  • Nvidia 不断扩大的野心包括机器人技术,甚至太空中的人工智能。
  • Nvidia 本周在加利福尼亚州圣何塞举行的 GTC 会议上向媒体推荐的图像是一排 40 个矩形,代表各种数据中心服务器机架。没有标签,只有架子矗立着,就像莎士比亚全集的书架,或者更不祥的是,像一排士兵。

    令人印象深刻的机架墙所隐含的信息是,Nvidia(如果还没有的话)最终将拥有数据中心从一端到另一端的所有处理能力。

    另外:这个操作系统悄悄地为所有 AI 以及大多数未来的 IT 工作提供动力

    在展会的舞台上,Nvidia 首席执行官黄仁勋在周一的主题演讲中宣布扩大公司的芯片和系统产品范围。现有的产品线包括 Vera CPU 芯片、Rubin GPU 芯片,现在,一种新型机架设备加入其中,用于超快速推理,称为 LPX。

    专门用于 AI 推理的新机架

    LPX 机架将于今年晚些时候上市,它由 Nvidia 设计的芯片组成,这些芯片使用了 Nvidia 于 12 月以 200 亿美元从人工智能初创公司 Groq 获得的知识产权。

    经过改造的 Groq 方法在 Nvidia Groq 3 LPU 中实现,将在 LPX 中与 Rubin GPU 结合使用,以实现推理速度和可处理数据总量之间的最佳平衡。

    Nvidia 超大规模和高性能计算主管 Ian Buck 在媒体预演中表示,Groq 3 LPU“可以将 GPU 的极限 FLOPS(每秒浮点运算)和 LPU 的带宽合而为一”。

    另外:云攻击变得越来越快、越来越致命 - 这是您的最佳防御计划

    改变人工智能的经济性

    如果您全部从我们这里购买,那就更好了

    扩大野心