Dr. Valerie Joseph named chair of Hallmarks Faculty Fellows
坎贝尔标志和品格教育办公室很高兴地宣布推出一项新举措,该计划的更多内容瓦莱丽·约瑟夫博士任命为标志学院研究员主席的帖子首先出现在博客上。
Introducing Disaggregated Inference on AWS powered by llm-d
在这篇博文中,我们介绍了下一代推理能力背后的概念,包括分解服务、智能请求调度和专家并行。我们讨论它们的优势,并介绍如何在 Amazon SageMaker HyperPod EKS 上实施它们,以显着提高推理性能、资源利用率和运营效率。
A Practical Guide to Memory for Autonomous LLM Agents
有效的架构、陷阱和模式这篇文章《自主 LLM 代理记忆实用指南》首先出现在《走向数据科学》上。
CNCF Warns Kubernetes Alone Is Not Enough to Secure LLM Workloads
来自云原生计算基金会的一篇新博客强调了组织在 Kubernetes 上部署大型语言模型 (LLM) 的关键差距:虽然 Kubernetes 擅长编排和隔离工作负载,但它本质上并不理解或控制人工智能系统的行为,从而创建了一个根本不同且更复杂的威胁模型。作者:克雷格·里西
MixAtlas: Uncertainty-aware Data Mixture Optimization for Multimodal LLM Midtraining
本文在 ICLR 2026 的导航和解决基础模型数据问题研讨会 (NADPFM) 上被接受。原则上的领域重新加权可以大幅提高样本效率和下游泛化能力;然而,多模式预训练的数据混合优化仍未得到充分探索。当前的多模式训练方法仅从数据格式或任务类型等单一角度调整混合物。我们介绍 MixAtlas,这是一个通过系统域分解和更小的代理模型进行计算高效的多模态混合优化的原则框架......
Your Chunks Failed Your RAG in Production
上游决策没有模型,一旦你弄错了,LLM 就可以修复你的块在生产中失败了你的 RAG 帖子首先出现在走向数据科学上。
NPR receives $113 million in charitable gifts
“我希望这一承诺能够提供 NPR 大胆创新和加强其全国网络所需的稳定性和火花,”康妮·鲍尔默 (Connie Ballmer) 说道,她捐赠了 1.13 亿美元中的 8000 万美元。
Note to Self: My Views This Afternoon on the Current State of MAMLM GPT LLM Pseudo-AGI
在付费专区后面,因为只有那些真正有兴趣密切关注我的 MAMLM 解释和评估之旅的人才会感兴趣。当前观点:思想哑剧:法学硕士...
Accelerating decode-heavy LLM inference with speculative decoding on AWS Trainium and vLLM
在本文中,您将了解推测性解码的工作原理以及它为何有助于降低 AWS Trainium2 上每个生成令牌的成本。
Prefill Is Compute-Bound. Decode Is Memory-Bound. Why Your GPU Shouldn’t Do Both.
内部分解的 LLM 推理 - 大多数 ML 团队尚未采用的 2-4 倍成本降低背后的架构转变。预填充是受计算限制的。解码受内存限制。为什么你的 GPU 不应该两者兼而有之。首先出现在《走向数据科学》上。
Complex & Intelligent Systems, Volume 12, Issue 4, April 2026
1) 6G Metaverse 网络的 AI 原生云边缘编排:LLM 引导的多代理 DRL 方法作者:Daniel Ayepah-Mensah、Amine Kidane Ghebreziabiher、Jamal Bentahar2) RAMAR:用于零样本讽刺检测的检索增强多代理推理作者:Congyin Hu、Shuang Cao、Fengjiao Jiang3) 改进的大型邻域解决动态取货和送货问题的搜索算法作者:Qingxia Shang,Yuanji Ming,Liang Feng4)Efficient person re-identification via Progressive F
В почте «Яндекса» появился ИИ-ассистент на базе «Алисы»
Alice AI LLM 在用户邮箱中搜索信息时不是按单词,而是按含义。
RAG Isn’t Enough — I Built the Missing Context Layer That Makes LLM Systems Work
大多数 RAG 教程侧重于检索或提示。当上下文增长时,真正的问题就开始了。本文展示了一个用纯 Python 构建的完整上下文工程系统,该系统控制内存、压缩、重新排名和代币预算 - 因此 LLM 在实际约束下保持稳定。 帖子 RAG 不够 - 我构建了使 LLM 系统工作的缺失上下文层首先出现在《走向数据科学》上。
How two mathematicians solved a cryptography mystery
Diffie-Hellman 密钥交换可保护从短信到政府机密的所有内容
Cram Less to Fit More: Training Data Pruning Improves Memorization of Facts
本文在 ICLR 2026 基础模型导航和解决数据问题研讨会上被接受。大型语言模型 (LLM) 可能很难记住其参数中的事实知识,通常会导致幻觉和在知识密集型任务中表现不佳。在本文中,我们从信息论的角度将事实记忆形式化,并研究训练数据分布如何影响事实准确性。我们表明,每当训练数据事实中包含的信息量超过模型时,事实准确性就不是最佳的(低于容量限制)......
Do we do enough to address student-on-student bullying in higher ed?
HEPI 主任尼克·希尔曼 (Nick Hillman) 评论了唐纳德·杰弗里斯 (Donald Jeffries) 所著的《恶霸统治:社会等级制度如何让恶霸统治学校、工作场所和整个社会》(2020)。 《欺凌统治》是一本关于教育和工作场所欺凌行为的长书,书中令人不安的真相层出不穷。我们被提醒:此外,作者用确凿的证据证实[...]这篇文章我们在解决高等教育中的学生欺凌问题上做得足够吗?首先出现在 HEPI 上。
LaCy: What Small Language Models Can and Should Learn is Not Just a Question of Loss
本文在 ICLR 基于 LLM 的代理系统内存研讨会上被接受。语言模型不断发展,将更多的世界知识压缩到其参数中,但可以预训练到其中的知识受到其参数大小的上限。特别是小语言模型(SLM)的容量是有限的,导致实际上不正确的生成。这个问题通常可以通过让 SLM 访问外部源来缓解:查询更大模型、文档或数据库的能力。在此背景下,我们研究的根本问题是……
Why Every AI Coding Assistant Needs a Memory Layer
AI 编码助理需要一个持久的内存层来克服 LLM 的无状态性,并通过系统地跨会话提供上下文来提高代码质量。为什么每个 AI 编码助理需要一个内存层一文首先出现在 Towards Data Science 上。