Parallel Track Transformers: Enabling Fast GPU Inference with Reduced Synchronization
基于 Transformer 的大型语言模型 (LLM) 的高效大规模推理仍然是一个基本的系统挑战,经常需要多 GPU 并行性来满足严格的延迟和吞吐量目标。传统的张量并行性会分解跨设备的矩阵运算,但会引入大量的 GPU 间同步,从而导致通信瓶颈和可扩展性下降。我们提出了并行轨道(PT)变压器,这是一种新颖的架构范例,可以重组计算以最小化跨设备依赖性。 PT 实现了高达 16 倍的减少……
How Automated NLP Pipelines Cut Oncology Data Abstraction from Weeks to Hours
Cognizant 高级数据科学家兼 IEEE 会议发言人 Abhijit Nayak 讨论了为癌症研究构建生产级信息提取系统,以及为什么领域专业知识比模型大小更重要。 《人工智能评论》7 月份的一项调查分析了 156 项肿瘤学 NLP 研究,并发现了一种模式:Transformer 模型在研究基准上表现出色,然后崩溃 [...]
Flexxbotics Transformers 根据 Apache 2.0 许可证发布,采用软件定义自动化 (SDA) 设计,可加速各种制造环境中使用不同工具、机器和自动化的开放式互操作性。
ParaRNN: Unlocking Parallel Training of Nonlinear RNNs for Large Language Models
循环神经网络 (RNN) 为序列建模奠定了基础,但其内在的序列性质限制了并行计算,为扩展造成了根本障碍。这导致了 Transformer 等可并行架构以及最近的状态空间模型 (SSM) 的主导地位。虽然 SSM 通过结构化线性递归实现高效并行化,但这种线性约束限制了它们的表达能力,并妨碍对复杂的非线性序列依赖关系进行建模。为了解决这个问题,我们提出了 ParaRNN,一个打破......
Mastering Non-Linear Data: A Guide to Scikit-Learn’s SplineTransformer
忘记僵硬的线条和疯狂的多项式。了解为什么样条曲线是特征工程的“金发姑娘”,它使用 Scikit-Learn 的 SplineTransformer 为非线性数据提供了灵活性和纪律的完美平衡。掌握非线性数据:Scikit-Learn SplineTransformer 指南的帖子首先出现在《走向数据科学》上。