IEEE Transactions on Fuzzy Systems, Volume 34, Issue 2, February 2026
1) 基于模糊信息粒的神经网络预测综述:方法、应用和未来挑战作者:J. Zhan、X. Wu、W. Ding、W. Pedrycz 页数:347 - 3672) 无人地面群系统的模糊博弈论控制设计:一种集成方法作者:X. Zhao、Z. Cui、Y. -H. Chen, J. Huang 页数:368 - 3813) 一致性模糊表示学习作者:C. 张、L. Chen、W. Ding、K. Zhu、Y. -F。 Yu, Z.hao, W. Bai页数: 382 - 3954) Takagi–Sugeno–Kang Fuzzy Systems With Iterated Projection Op
Parallel Track Transformers: Enabling Fast GPU Inference with Reduced Synchronization
基于 Transformer 的大型语言模型 (LLM) 的高效大规模推理仍然是一个基本的系统挑战,经常需要多 GPU 并行性来满足严格的延迟和吞吐量目标。传统的张量并行性会分解跨设备的矩阵运算,但会引入大量的 GPU 间同步,从而导致通信瓶颈和可扩展性下降。我们提出了并行轨道(PT)变压器,这是一种新颖的架构范例,可以重组计算以最小化跨设备依赖性。 PT 实现了高达 16 倍的减少……
How Automated NLP Pipelines Cut Oncology Data Abstraction from Weeks to Hours
Cognizant 高级数据科学家兼 IEEE 会议发言人 Abhijit Nayak 讨论了为癌症研究构建生产级信息提取系统,以及为什么领域专业知识比模型大小更重要。 《人工智能评论》7 月份的一项调查分析了 156 项肿瘤学 NLP 研究,并发现了一种模式:Transformer 模型在研究基准上表现出色,然后崩溃 [...]
Flexxbotics Transformers 根据 Apache 2.0 许可证发布,采用软件定义自动化 (SDA) 设计,可加速各种制造环境中使用不同工具、机器和自动化的开放式互操作性。
ParaRNN: Unlocking Parallel Training of Nonlinear RNNs for Large Language Models
循环神经网络 (RNN) 为序列建模奠定了基础,但其内在的序列性质限制了并行计算,为扩展造成了根本障碍。这导致了 Transformer 等可并行架构以及最近的状态空间模型 (SSM) 的主导地位。虽然 SSM 通过结构化线性递归实现高效并行化,但这种线性约束限制了它们的表达能力,并妨碍对复杂的非线性序列依赖关系进行建模。为了解决这个问题,我们提出了 ParaRNN,一个打破......