最大者不赢

1 月份,AI 领域的重要公告数量引人注目。对我来说,有两项公告尤为突出:美国政府支持星际之门项目,这是一个耗资 5000 亿美元的巨型数据中心,投资方包括 Oracle、Softbank 和 OpenAI;DeepSeek 发布了其 R1 推理模型,该模型的训练成本估计约为 […]

来源:O'Reilly Media _AI & ML

1 月份,AI 领域发布了许多重要公告。对我来说,有两项公告尤为突出:美国政府支持星际之门项目,这是一个耗资 5000 亿美元的巨型数据中心,投资方包括 Oracle、Softbank 和 OpenAI;DeepSeek 发布了其 R1 推理模型,该模型的训练成本估计约为 500 万美元——这是一个很大的数字,但只是 OpenAI 训练其 o1 模型成本的一小部分。

Oracle、Softbank 和 OpenAI R1 推理模型

美国文化长期以来一直认为越大越好,越贵越好。这当然是有史以来最昂贵的数据中心背后的部分原因。但我们必须问一个非常不同的问题。如果 DeepSeek 的训练成本确实约为 o1 的十分之一,并且如果 DeepSeek 上的推理(生成答案)成本约为 o1 成本的三十分之一(每百万输出令牌 2.19 美元 vs. 每百万输出令牌 60 美元),那么美国技术部门是否朝着正确的方向前进?

每百万输出令牌 2.19 美元 每百万输出令牌 60 美元

学得更快。挖得更深。看得更远。

学得更快。挖得更深。看得更远。

显然不是。我们的“越大越好”心态正在失败。

我一直认为,人工智能成功的关键在于尽量减少训练和推理的成本。我不认为美国和中国人工智能社区之间真的存在竞争。但如果我们接受这个比喻,美国——尤其是 OpenAI——显然落后了。而价值 5000 亿美元的数据中心只是问题的一部分,而不是解决方案。更好的工程设计胜过“超大化”。美国的技术人员需要吸取这个教训。

获取 O’Reilly Radar Trends to Watch 时事通讯

跟踪商业和技术交叉点上需要了解的趋势。

跟踪商业和技术交叉点上需要了解的趋势。

感谢您订阅。

感谢您订阅。