100,000 个 GPU 和 30 亿美元:Elon Musk 愿意做什么来让 Grok 3 变得完美?

新的 AI 模型会是什么样子,它与 GPT-4 有何不同。

来源:安全实验室新闻频道

新的 AI 模型会是什么样子,它与 GPT-4 有何不同。

由埃隆·马斯克 (Elon Musk) 创立的初创公司 xAI 宣布了开发新一代 Grok 语言模型的雄心勃勃的计划。该公司打算使用前所未有的 100,000 个 NVIDIA H100 GPU 来训练 Grok 3。

埃隆·马斯克

这大大超过了竞争对手部署的资源。相比之下,据传,OpenAI 的 GPT-4 模型是在 40,000 个 NVIDIA A100 GPU 上进行训练的,与 H100 不同,这些 GPU 已经被认为已经过时了。

Elon Musk 在最近的一条推文中表示,Grok 3 将比以前的版本“大得多”。他说,根据互联网数据训练语言模型需要“大量工作”,特别是在计算资源方面。

有趣的是,Grok 模型是专门为 Platform X(以前称为 Twitter)的高级用户集成为 AI 助手而开发的。

xAI 计划在今年 8 月发布 Grok 2 的临时版本,然后继续开发 Grok 3。专家估计,仅在上述硬件上训练 Grok 3 就可能花费约 30 亿美元。而且,马斯克此前表示,计划为xAI采购价值约90亿美元的NVIDIA Blackwell B200旗舰人工智能加速器。

专家认为,对技术基础设施的如此重大投资可以使 xAI 成为人工智能市场的领导者。虽然竞争对手专注于逐步改进他们的语言模型,但 xAI 似乎正在通过利用巨大的计算资源来实现巨大的飞跃。

我们仍需关注事态的发展,并拭目以待 Grok 3 能否不负众望。