LLM关键词检索结果

ClickHouse将获得LLM申请的监控功能

ClickHouse получит функции мониторинга LLM-приложений

随着数据平台玩家试图成为人工智能反馈循环的“大师”,数据库分析提供商收购了开源大型语言模型工程系统开发商 Langfuse。

评估多步骤 LLM 生成的内容:为什么客户旅程需要结构指标

Evaluating Multi-Step LLM-Generated Content: Why Customer Journeys Require Structural Metrics

如何评估旨在建立参与度和交付业务成果的以目标为导向的内容,以及为什么结构很重要。评估多步骤法学硕士生成的内容:为什么客户旅程需要结构指标首先出现在走向数据科学上。

TDS 时事通讯:超越即时工程:LLM 优化的新领域

TDS Newsletter: Beyond Prompt Engineering: The New Frontiers of LLM Optimization

让我们重点关注将人工智能驱动的工作流程推向新水平的最新方法TDS 后通讯:超越即时工程:LLM 优化的新前沿首先出现在《走向数据科学》上。

人工智能公司在撒谎:LLM模型存储了整本受版权保护的书籍

AI-företagen ljuger: LLM-modeller har lagrat hela upphovsrättsskyddade böcker

OpenAI、Anthropic 和 Google 等人工智能公司一致声称,他们的语言模型不存储训练数据的副本,而只存储“学习模式”。在向美国版权局提交的文件中,几家公司积极否认他们的模型具有存储系统功能。但斯坦福大学和耶鲁大学于 2026 年 1 月发表的一项新研究猛烈抨击了人工智能公司在撒谎:LLM 模型存储了首次出现在人工智能新闻中的全部受版权保护的书籍。

数据质量错觉:重新思考 LLM 预训练中基于分类器的质量过滤

The Data-Quality Illusion: Rethinking Classifier-Based Quality Filtering for LLM Pretraining

大型模型是在包含混合质量文档的大量网络爬行数据集上进行预训练的,因此数据过滤至关重要。一种流行的方法是基于分类器的质量过滤 (CQF),它训练二元分类器来区分预训练数据和小型高质量数据集。它为每个预训练文档分配一个定义为分类器分数的质量分数,并仅保留得分最高的分数。我们对 CQF 进行了深入分析。我们表明,虽然 CQF 提高了下游任务性能,但它不一定能增强高质量的语言建模......

将 LLM 内存减少 84%:深入研究融合内核

Cutting LLM Memory by 84%: A Deep Dive into Fused Kernels

为什么你的最终 LLM 层出现 OOMing 以及如何使用自定义 Triton 内核修复它。将 LLM 内存削减 84%:深入研究融合内核的帖子首先出现在 Towards Data Science 上。

Anindya Das Antar 访谈:评估审核护栏在调整 LLM 输出方面的有效性

Interview with Anindya Das Antar: Evaluating effectiveness of moderation guardrails in aligning LLM outputs

他们在 AIES 2025 上发表的论文“你的护栏能守卫吗?”评估审核护栏在使 LLM 输出与专家用户期望保持一致方面的有效性的方法 Anindya Das Antar、Xun Huan 和 Nikola Banovic 提出了一种评估和选择护栏的方法,该方法能够最好地将 LLM 输出与主题专家的领域知识保持一致。在这里,[...]

2026 年主题建模技术:种子建模、LLM 集成和数据摘要

Topic Modeling Techniques for 2026: Seeded Modeling, LLM Integration, and Data Summaries

种子主题建模、与 LLM 集成以及汇总数据训练是 NLP 工具包的新鲜部分。2026 年主题建模技术帖子:种子建模、LLM 集成和数据摘要首先出现在《走向数据科学》上。

在 Amazon SageMaker AI 上使用 AWQ 和 GPTQ 通过训练后权重和激活加速 LLM 推理

Accelerating LLM inference with post-training weight and activation using AWQ and GPTQ on Amazon SageMaker AI

使用几行代码即可将量化模型无缝部署在 Amazon SageMaker AI 上。在这篇文章中,我们探讨了为什么量化很重要——它如何实现更低成本的推理,支持在资源受限的硬件上的部署,并减少现代法学硕士对财务和环境的影响,同时保留其大部分原始性能。我们还深入研究 PTQ 背后的原理,并演示如何量化您选择的模型并将其部署在 Amazon SageMaker 上。

并行轨道变压器:通过减少同步实现快速 GPU 推理

Parallel Track Transformers: Enabling Fast GPU Inference with Reduced Synchronization

基于 Transformer 的大型语言模型 (LLM) 的高效大规模推理仍然是一个基本的系统挑战,经常需要多 GPU 并行性来满足严格的延迟和吞吐量目标。传统的张量并行性会分解跨设备的矩阵运算,但会引入大量的 GPU 间同步,从而导致通信瓶颈和可扩展性下降。我们提出了并行轨道(PT)变压器,这是一种新颖的架构范例,可以重组计算以最小化跨设备依赖性。 PT 实现了高达 16 倍的减少……

对性的幻想反映了你的性格

What Fantasizing About Sex Says About Your Personality

Hatty Willmoth,科学焦点频繁的性幻想与神经质有关 - 一种可能使您面临一系列身心健康问题风险的人格特质 - 根据...

关于学生贷款利息,三位智者 Ron DEARING、John BROWNE 和 Philip AUGAR 怎么说?

What did the three wise men, Ron DEARING, John BROWNE & Philip AUGAR, say about student loan interest?

HEPI 主任 Nick Hillman OBE 回顾了 Dearing、Browne 和 Augar 的报告,看看它们为当今反对学生贷款的活动提供了哪些教训(如果有的话)。人们(非常)经常说,解决学生贷款系统问题的最佳方法是建立[...]帖子“三位智者罗恩·迪林、约翰·布朗和菲利普·奥格对学生贷款利息有何看法?”首先出现在 HEPI 上。

帮助 AI 代理进行搜索,从大型语言模型中获得最佳结果

Helping AI agents search to get the best results out of large language models

EnCompass 通过回溯和多次尝试来执行 AI 代理程序,找到 LLM 生成的最佳输出集。它可以帮助程序员更有效地与人工智能代理合作。

机制可解释性:法学硕士一探究竟

Mechanistic Interpretability: Peeking Inside an LLM

LLM 的类人认知能力是真是假?信息如何通过神经网络传输?法学硕士里面是否隐藏着知识?《机械可解释性:法学硕士内部窥探》一文首先出现在《走向数据科学》上。

最便宜的云 GPU:AI 团队节省计算成本的地方

Cheapest Cloud GPUs: Where AI Teams Save on Compute

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。

什么是托管云?优点、用例及其工作原理

What Is Managed Cloud? Benefits, Use Cases, and How It Works

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。

2026 年十大混合云提供商 | AI 就绪企业指南

Top 10 Hybrid Cloud Providers in 2026 | AI-Ready Enterprise Guide

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。

人工智能提示出现网络威胁

AI Prompts Emerging as Cyber Threats

为什么重要:AI 提示作为网络威胁出现,探讨了提示注入如何在不使用恶意软件代码的情况下利用 LLM。