LM关键词检索结果

零浪费代理 RAG:设计缓存架构以最大限度地减少延迟和 LLM 成本

Zero-Waste Agentic RAG: Designing Caching Architectures to Minimize Latency and LLM Costs at Scale

通过验证感知的多层缓存将 LLM 成本降低 30% 后零浪费代理 RAG:设计缓存架构以最大限度地减少延迟和大规模 LLM 成本首先出现在《走向数据科学》上。

扩展搜索相关性:利用 LLM 生成的判断提高应用商店排名

Scaling Search Relevance: Augmenting App Store Ranking with LLM-Generated Judgments

大型商业搜索系统优化相关性以推动成功的会话,帮助用户找到他们正在寻找的内容。为了最大化相关性,我们利用两个互补的目标:行为相关性(用户倾向于点击或下载的结果)和文本相关性(结果的语义适合查询)。一个持续存在的挑战是相对于丰富的行为相关性标签而言,专家提供的文本相关性标签的稀缺。我们首先通过系统地评估 LLM 配置来解决这个问题,发现一个专门的、经过微调的模型显着......

规划定制 LMS?以下是如何以正确的方式开始

Planning a Custom LMS? Here’s How to Start the Right Way

定制电子学习不仅仅是数字培训,它还是一种战略工具,可以改变您的组织教育员工、合作伙伴或付费学习者的方式​​。与通用的预制课程不同,定制电子学习是指专门为您的组织的目标、工作流程和品牌标识设计、编写和构建的培训内容和软件。它可能包括定制的 LMS、市场、基于角色的学习环境或全套定制的互动课程。如果您希望建立一个真正量身定制的学习平台 - 一个能够反映您的品牌、适应学习者的需求并与您的组织一起成长的平台 - 定制的电子学习项目可能是一项战略投资。与开箱即用的解决方案不同,定制平台可让您完全控制功能、设计、集成和用户体验。

迄今为止最大的 ALMA 图像揭示了银河系中心隐藏的化学成分

Largest ALMA Image Ever Reveals Hidden Chemistry at the Heart of the Milky Way

ALMA 最雄心勃勃的银河调查揭示了银河系中心的一个野生的、充满细丝的恒星苗圃。天文学家对银河系中心产生了惊人的新视角,比以往任何时候都更详细地揭示了错综复杂的宇宙气体网。该图像是使用 Atacama Large [...]

新方法可以提高LLM培训效率

New method could increase LLM training efficiency

通过利用空闲计算时间,研究人员可以在保持准确性的同时将模型训练速度提高一倍。

联合部队完善 JBLM 的 CBRN 防御和响应能力

Joint Force Refines CBRN Defense and Response Capabilities at JBLM

华盛顿州刘易斯-麦科德联合基地——为了确保联合部队能够在任何环境下作战并取得胜利,美国陆军和国防部各部门的主要组织...

在 Amazon SageMaker AI 和 Amazon Bedrock 上使用 vLLM 高效地服务数十个微调模型

Efficiently serve dozens of fine-tuned models with vLLM on Amazon SageMaker AI and Amazon Bedrock

在这篇文章中,我们将解释如何在 vLLM 中为专家混合 (MoE) 模型实现多 LoRA 推理,描述我们执行的内核级优化,并向您展示如何从这项工作中受益。我们在这篇文章中使用 GPT-OSS 20B 作为我们的主要示例。

超越单一提取器:重新思考 LLM 预训练的 HTML 到文本提取

Beyond a Single Extractor: Re-thinking HTML-to-Text Extraction for LLM Pretraining

构建网络规模的 LLM 预训练数据集的首要预处理步骤之一涉及从 HTML 中提取文本。尽管网络内容多种多样,但现有的开源数据集主要对所有网页应用单个固定提取器。在这项工作中,我们调查这种做法是否会导致互联网数据的覆盖和利用不理想。我们首先表明,虽然不同的提取器可能会在标准语言理解任务上产生相似的模型性能,但在固定过滤管道中幸存的页面可能会有很大差异。这表明一个简单的...

如何选择合适的开源 LLM 进行生产

How to Choose the Right Open-Source LLM for Production

根据工作负载类型、基础设施限制、成本和实际性能为生产选择合适的开源 LLM 的实用指南。

使用 NotebookLM 生成接地 PRD

Grounded PRD Generation with NotebookLM

利用 NotebookLM 的功能,在几分钟内将原始的、有时是混乱的信息转化为可靠的 PRD。

Elevate 推出 ELMA 代理功能

Elevate Launches ELMA Agentic Capability

Elevate 为内部团队推出了代理功能。 ELMA 扩展了该律师事务所基于云的 ELM 系统,该系统又与一系列...

MAMLM 仍然无法完成开放书本、封闭世界、有限列表、明显的地面实况任务

MAMLMs Still Epic Fail Open‑Book, Closed‑World, Finite‑List, Obvious Ground Truth Tasks

我连续九次将其视为失败。确实有一个独特的、明确的答案,机器有机会发现它:雇佣骑士 Ashford Meadow 系列......

AF-KLM 因未能实现绿色债券目标而面临 880 万美元的损失

AF-KLM faces $8.8mn cost for missing green bond targets

法航荷航集团发言人向 ch-aviation 证实,由于未能实现与价值 10 亿欧元(11 亿美元)可持续发展相关债券相关的 2025 年航空燃油温室气体排放目标,法航荷航预计将遭受 750 万欧元(880 万美元)的成本影响。根据 2026 年 2 月 19 日发布的 2025 年合并财务报表,该集团表示,其没有实现每季度减少温室气体排放的目标。与 2019 年基线相比,到 2025 年吨公里收入将增加 10%。目标与...

如何利用 LMS 数据:增强 L&D 洞察力的用例

How To Utilize LMS Data: Use Cases For Enhancing L&D Insights

学习利用 LMS 分析来获得有影响力的学习见解和更强的业务绩效。这篇文章首次发表在电子学习行业。

分层 LLM 架构的异步验证语义缓存

Asynchronous Verified Semantic Caching for Tiered LLM Architectures

大型语言模型 (LLM) 现在位于搜索、辅助和代理工作流程的关键路径中,使得语义缓存对于降低推理成本和延迟至关重要。生产部署通常使用分层的静态-动态设计:从日志中挖掘的经过策划、离线审查的响应的静态缓存,由在线填充的动态缓存提供支持。在实践中,这两层通常都由单个嵌入相似性阈值控制,这会导致一个艰难的权衡:保守的阈值会错过安全重用的机会,而激进的阈值则可能会导致语义上不正确的服务......

个性化功能可以让 LLM 更受欢迎

Personalization features can make LLMs more agreeable

长期对话的背景可能会导致法学硕士开始反映用户的观点,可能会降低准确性或创建虚拟回声室。

LLM 的 DPO 与 PPO:主要差异和用例

DPO vs PPO for LLMs: Key Differences & Use Cases

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。

LLM 模型架构解释:MoE 的转换器

LLM Model Architecture Explained: Transformers to MoE

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。