LLM关键词检索结果

LLM 时代的数据工程

Data Engineering for the LLM Age

优秀的法学硕士需要优秀的数据。探索塑造人工智能就绪数据工程未来的管道、工具和 RAG 架构

十大 LLM 评估工具

The Top 10 LLM Evaluation Tools

LLM 评估工具可帮助团队衡量模型在各种任务中的执行情况,包括推理、总结、检索、编码和指令遵循。他们分析性能趋势,检测幻觉,根据实际情况验证输出,并在微调或即时工程期间对改进进行基准测试。如果没有强大的评估框架,组织就会面临部署不可预测或有害人工智能的风险……阅读更多»“十大法学硕士评估工具”一文首先出现在《大数据分析新闻》上。

零浪费代理 RAG:设计缓存架构以最大限度地减少延迟和 LLM 成本

Zero-Waste Agentic RAG: Designing Caching Architectures to Minimize Latency and LLM Costs at Scale

通过验证感知的多层缓存将 LLM 成本降低 30% 后零浪费代理 RAG:设计缓存架构以最大限度地减少延迟和大规模 LLM 成本首先出现在《走向数据科学》上。

扩展搜索相关性:利用 LLM 生成的判断提高应用商店排名

Scaling Search Relevance: Augmenting App Store Ranking with LLM-Generated Judgments

大型商业搜索系统优化相关性以推动成功的会话,帮助用户找到他们正在寻找的内容。为了最大化相关性,我们利用两个互补的目标:行为相关性(用户倾向于点击或下载的结果)和文本相关性(结果的语义适合查询)。一个持续存在的挑战是相对于丰富的行为相关性标签而言,专家提供的文本相关性标签的稀缺。我们首先通过系统地评估 LLM 配置来解决这个问题,发现一个专门的、经过微调的模型显着......

新方法可以提高LLM培训效率

New method could increase LLM training efficiency

通过利用空闲计算时间,研究人员可以在保持准确性的同时将模型训练速度提高一倍。

在 Amazon SageMaker AI 和 Amazon Bedrock 上使用 vLLM 高效地服务数十个微调模型

Efficiently serve dozens of fine-tuned models with vLLM on Amazon SageMaker AI and Amazon Bedrock

在这篇文章中,我们将解释如何在 vLLM 中为专家混合 (MoE) 模型实现多 LoRA 推理,描述我们执行的内核级优化,并向您展示如何从这项工作中受益。我们在这篇文章中使用 GPT-OSS 20B 作为我们的主要示例。

超越单一提取器:重新思考 LLM 预训练的 HTML 到文本提取

Beyond a Single Extractor: Re-thinking HTML-to-Text Extraction for LLM Pretraining

构建网络规模的 LLM 预训练数据集的首要预处理步骤之一涉及从 HTML 中提取文本。尽管网络内容多种多样,但现有的开源数据集主要对所有网页应用单个固定提取器。在这项工作中,我们调查这种做法是否会导致互联网数据的覆盖和利用不理想。我们首先表明,虽然不同的提取器可能会在标准语言理解任务上产生相似的模型性能,但在固定过滤管道中幸存的页面可能会有很大差异。这表明一个简单的...

如何选择合适的开源 LLM 进行生产

How to Choose the Right Open-Source LLM for Production

根据工作负载类型、基础设施限制、成本和实际性能为生产选择合适的开源 LLM 的实用指南。

分层 LLM 架构的异步验证语义缓存

Asynchronous Verified Semantic Caching for Tiered LLM Architectures

大型语言模型 (LLM) 现在位于搜索、辅助和代理工作流程的关键路径中,使得语义缓存对于降低推理成本和延迟至关重要。生产部署通常使用分层的静态-动态设计:从日志中挖掘的经过策划、离线审查的响应的静态缓存,由在线填充的动态缓存提供支持。在实践中,这两层通常都由单个嵌入相似性阈值控制,这会导致一个艰难的权衡:保守的阈值会错过安全重用的机会,而激进的阈值则可能会导致语义上不正确的服务......

个性化功能可以让 LLM 更受欢迎

Personalization features can make LLMs more agreeable

长期对话的背景可能会导致法学硕士开始反映用户的观点,可能会降低准确性或创建虚拟回声室。

LLM 的 DPO 与 PPO:主要差异和用例

DPO vs PPO for LLMs: Key Differences & Use Cases

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。

LLM 模型架构解释:MoE 的转换器

LLM Model Architecture Explained: Transformers to MoE

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。

ClickHouse将获得LLM申请的监控功能

ClickHouse получит функции мониторинга LLM-приложений

随着数据平台玩家试图成为人工智能反馈循环的“大师”,数据库分析提供商收购了开源大型语言模型工程系统开发商 Langfuse。

论智能与判断分离的不可能性:AI 对齐过滤的计算难题

On the Impossibility of Separating Intelligence from Judgment: The Computational Intractability of Filtering for AI Alignment

随着大型语言模型 (LLM) 部署的增加,人们担心它们可能被滥用来生成有害内容。我们的工作研究对齐挑战,重点是过滤器以防止生成不安全信息。两个自然的干预点是在输入提示到达模型之前对其进行过滤,以及在生成后对输出进行过滤。我们的主要结果证明了过滤提示和输出方面的计算挑战。首先,我们表明存在没有有效提示过滤器的法学硕士:对抗性提示......

保险公司生成式人工智能使用状况调查结果(欧洲)——EIOPA 报告简介

保険会社における生成AIの利用状況の調査結果(欧州)-EIOPAの報告書の紹介

■摘要 2026年2月1日,EIOPA(欧洲保险和职业养老金管理局)发布了欧洲保险业生成式人工智能的使用状况报告。这是 EIOPA 于 2025 年进行的关于生成式 AI 的实施状况和风险的调查结果的总结。这表明欧洲保险业引入生成式人工智能尚处于早期阶段,但进展迅速,除了技术创新之外,强有力的治理和风险管理也至关重要。 ■目录 1 - 简介 2 - 报告内容 1 |生成式人工智能的使用背景和现状2 |引入生成式人工智能3的挑战和风险|治理问题 3 - 结论 2026 年 2 月 1 日,EIOPA(欧洲保险和职业养老金管理局)发布了一份关于欧洲保险业生成式人工智能使用状况的报告 1。本报告总结

Glen Tullman — 以消费者为导向的护理以及医疗保健领域人工智能寻路的兴起

Glen Tullman — Consumer-Directed Care and the Rise of AI-Powered WayFinding in Healthcare

执行摘要。随着医疗保健变得更加分散和昂贵,Transcarent 首席执行官 Glen Tullman 解释了为什么由生成式人工智能驱动的消费者导向平台正在成为下一个结构性转变。他概述了 WayFinding 如何从搜索转向代理行动,为什么一致的激励比添加的功能更重要,以及负责任的自动化必须如何让临床医生坚定地 [...]

TTFT 与吞吐量:哪个指标对用户影响更大?

TTFT vs Throughput: Which Metric Impacts Users More?

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

大型模型推理容器 – 最新功能和性能增强

Large model inference container – latest capabilities and performance enhancements

AWS 最近发布了大型模型推理 (LMI) 容器的重大更新,为在 AWS 上托管 LLM 的客户提供全面的性能改进、扩展的模型支持和简化的部署功能。这些版本的重点是降低操作复杂性,同时在流行的模型架构中提供可衡量的性能提升。