transform关键词检索结果

并行轨道变压器:通过减少同步实现快速 GPU 推理

Parallel Track Transformers: Enabling Fast GPU Inference with Reduced Synchronization

基于 Transformer 的大型语言模型 (LLM) 的高效大规模推理仍然是一个基本的系统挑战,经常需要多 GPU 并行性来满足严格的延迟和吞吐量目标。传统的张量并行性会分解跨设备的矩阵运算,但会引入大量的 GPU 间同步,从而导致通信瓶颈和可扩展性下降。我们提出了并行轨道(PT)变压器,这是一种新颖的架构范例,可以重组计算以最小化跨设备依赖性。 PT 实现了高达 16 倍的减少……

自动化 NLP 流程如何将肿瘤学数据提取时间从几周缩短到几小时

How Automated NLP Pipelines Cut Oncology Data Abstraction from Weeks to Hours

Cognizant 高级数据科学家兼 IEEE 会议发言人 Abhijit Nayak 讨论了为癌症研究构建生产级信息提取系统,以及为什么领域专业知识比模型大小更重要。 《人工智能评论》7 月份的一项调查分析了 156 项肿瘤学 NLP 研究,并发现了一种模式:Transformer 模型在研究基准上表现出色,然后崩溃 [...]

Flexxbotics 在 GitHub 上启动开源项目以加速工业自动化互操作性

Flexxbotics Launches Open-Source Project on GitHub to Accelerate Industrial Automation Interoperability

Flexxbotics Transformers 根据 Apache 2.0 许可证发布,采用软件定义自动化 (SDA) 设计,可加速各种制造环境中使用不同工具、机器和自动化的开放式互操作性。

ParaRNN:解锁大型语言模型的非线性 RNN 并行训练

ParaRNN: Unlocking Parallel Training of Nonlinear RNNs for Large Language Models

循环神经网络 (RNN) 为序列建模奠定了基础,但其内在的序列性质限制了并行计算,为扩展造成了根本障碍。这导致了 Transformer 等可并行架构以及最近的状态空间模型 (SSM) 的主导地位。虽然 SSM 通过结构化线性递归实现高效并行化,但这种线性约束限制了它们的表达能力,并妨碍对复杂的非线性序列依赖关系进行建模。为了解决这个问题,我们提出了 ParaRNN,一个打破......

注意力矩阵中的故障

Glitches in the Attention Matrix

Transformer 工件的历史以及如何修复它们的最新研究注意力矩阵中的故障首先出现在走向数据科学上。

掌握非线性数据:Scikit-Learn SplineTransformer 指南

Mastering Non-Linear Data: A Guide to Scikit-Learn’s SplineTransformer

忘记僵硬的线条和疯狂的多项式。了解为什么样条曲线是特征工程的“金发姑娘”,它使用 Scikit-Learn 的 SplineTransformer 为非线性数据提供了灵活性和纪律的完美平衡。掌握非线性数据:Scikit-Learn SplineTransformer 指南的帖子首先出现在《走向数据科学》上。