并行性关键词检索结果

spd:高语言模型的有效张量并行性的同步点下降

SPD: Sync-Point Drop for Efficient Tensor Parallelism of Large Language Models

随着Largelanguage模型(LLM)规模的快速扩展,使跨多个计算单元的有效分布推理变得越来越重要。但是,来自流行的分布式促进技术(例如张量并行主义)的沟通开销构成了实现可伸缩性和低潜伏期的重大挑战。因此,我们引入了一种新颖的技术,同步点降(SPD),以通过选择性地降低注意力输出的同步性来减少张量并行性中的通信开销。详细说明,我们首先提出了一个……

分布式深度学习训练:Tensorflow 中的模型和数据并行性

Distributed Deep Learning training: Model and Data Parallelism in Tensorflow

如何使用镜像策略、参数服务器和中央存储等分布式方法在多个 GPU 或机器中训练数据。

使用AWS Trainium芯片和VLLM

How Amazon scaled Rufus by building multi-node inference using AWS Trainium chips and vLLM

在这篇文章中,亚马逊分享了他们如何使用Amazon Trainium Chips和VLLM为其生成的AI购物助理Rufus开发多节点推理解决方案,以大规模提供大型语言模型。该解决方案结合了领导者/追随者编排模型,混合并行性策略以及在亚马逊ECS上构建的多节点推理单元抽象层,以跨多个节点部署模型,同时保持高性能和可靠性。

您的LLM知道未来:揭示其多token预测潜力

Your LLM Knows the Future: Uncovering Its Multi-Token Prediction Potential

自回归语言模型受其固有的顺序性质的约束,一次产生一个令牌。该范式限制了推理速度和并行性,尤其是在生成阶段的文本方向和语义相对确定时。在这项工作中,我们提出了一个新颖的框架,该框架利用了关于未来令牌的香草自回归语言模型的固有知识,结合了技术来实现这一潜力并能够同时预测随后多个令牌。我们的方法介绍了几项关键创新:(1)A…

苹果情报基金会语言模型技术报告2025

Apple Intelligence Foundation Language Models Tech Report 2025

我们介绍了两种多语言的多式联运基础语言模型,使苹果智能在苹果设备和服务上具有功能:(i)通过建筑创新(例如KV-CACHE共享和2位量化量化的培训)为Apple Silicon优化了〜3B参数的启用式启动模型; (ii)建立在新型的并行轨道混合物(PT-MOE)变压器上的可扩展服务器模型,该模型结合了轨道并行性,稀疏计算的混合物和交织的全球 - 单位关注,以使高质量与竞争性成本相互交流,以使苹果的私人云计算……

Laissez-Faire Economics上的凯恩斯

Keynes on laissez-faire economics

经济自由放任与达尔文主义之间的并行性……确实非常接近。达尔文(Darwin

减少对数据科学项目的价值的时间:第2部分

Reducing Time to Value for Data Science Projects: Part 2

利用自动化和并行性来扩展实验,缩短了对数据科学项目的价值的时间:第2部分首先出现在数据科学方面。

使用 Amazon SageMaker 模型并行高效训练具有大序列长度的模型

Efficiently train models with large sequence lengths using Amazon SageMaker model parallel

在本文中,我们将演示 Amazon SageMaker 模型并行库 (SMP) 如何通过支持新功能来满足这一需求,例如用于加速训练性能的 8 位浮点 (FP8) 混合精度训练和用于处理大输入序列长度的上下文并行性,从而扩展其现有功能的列表。

Jim Keller:摩尔定律、微处理器、抽象和第一原理

Jim Keller: Moore’s Law, Microprocessors, Abstractions, and First Principles

Jim Keller 是一位传奇的微处理器工程师,曾在 AMD、Apple、Tesla 和 Intel 工作过。他因在 AMD K7、K8、K12 和 Zen 微架构、Apple A4、A5 处理器方面的工作以及 x86-64 指令集和 HyperTransport 互连规范的合著者而闻名。此对话是人工智能播客的一部分。如果您想了解有关此播客的更多信息,请访问 https://lexfridman.com/ai 或在 Twitter、LinkedIn、Facebook、Medium 或 YouTube 上与 @lexfridman 联系,您可以在其中观看这些对话的视频版本。如果您喜欢播客,请在