Google张量在OpenAI中进行了测试。

专家认为,这是由于逻辑结论形成成本的下降

来源:OSP网站大数据新闻

OpenAI 已开始对 Google 开发的张量处理单元 (TPU) 进行初步测试。该公司向路透社报告了这一情况,并指出目前尚未计划大规模实施。 Google Tensor 处理器是专用集成电路 (ASIC),可加速机器学习任务,并经过优化以在现代神经网络上执行矩阵计算。

据 Forrester Research 称,OpenAI 的测试表明,大型语言模型 (LLM) 开发人员正在探索专用硬件的功能,以降低生成逻辑推理的不断增长的成本,并随着模型使用强度的增加而提高计算效率。

巴克莱指出,OpenAI 等法学硕士开发人员被迫使用消费类 ASIC 芯片而不是昂贵的 GPU,以降低推理成本并“推动盈利”。根据巴克莱预测,到 2026 年,用于将经过训练的 AI 模型应用于实际数据(消费者 AI 推理)的芯片的资本支出将达到约 1200 亿美元,到 2028 年将超过 1.1 万亿美元。

Forrester 解释说,OpenAI 一半以上的计算资源都用于推理,与 Nvidia GPU 相比,张量处理器显着降低了成本。它们无法与新的 Nvidia 芯片的性能相媲美,但它们最大限度地减少了功耗和闲置资源,使它们在扩展解决方案时更具成本效益。