llm关键词检索结果

个性化功能可以让 LLM 更受欢迎

Personalization features can make LLMs more agreeable

长期对话的背景可能会导致法学硕士开始反映用户的观点,可能会降低准确性或创建虚拟回声室。

新报告:利用统计模型扩展人工智能评估工具箱

New Report: Expanding the AI Evaluation Toolbox with Statistical Models

NIST AI 800-3 认为,LLM 评估的统计有效性得益于评估者明确采用模型来分析评估结果并披露相关假设。广义线性混合建模是一种有前途的方法,可以为更有原则的人工智能评估统计奠定基础。未来的 CAISI 和 NIST 出版物将进一步探讨统计模型在人工智能评估中的应用。

多 GPU 与单 GPU 扩展经济学

Multi-GPU vs Single-GPU Scaling economics

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。

LLM 的 DPO 与 PPO:主要差异和用例

DPO vs PPO for LLMs: Key Differences & Use Cases

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。

AI 成本控制:预算、节流和模型分层

AI Cost Controls: Budgets, Throttling & Model Tiering

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。

2026 年最佳私有云托管平台

Best Private Cloud Hosting Platforms in 2026

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。

LLM 模型架构解释:MoE 的转换器

LLM Model Architecture Explained: Transformers to MoE

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。

跨 SaaS、VPC 和本地部署 MCP | 2026年指南

Deploying MCP Across SaaS, VPC & On-Prem | 2026 Guide

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。

IEEE 人工智能汇刊,第 7 卷,第 2 期,2026 年 2 月

IEEE Transactions on Artificial Intelligence, Volume 7, Issue 2, February 2026

1) 通过双空间一致性信息测量的缺失特征在线多标签流特征选择作者:J. Dai, J. Wang页数:610 - 6242) CoT-Drive: Efficient Motion Forecasting for Autonomous Driving With LLMs and Chain-of-Thought Prompting作者:H. Liao, H. Kong, B. Wang, C. Wang, K. Y. Wang, Z. He, C. Xu, Z. Li 页数:625 - 6413) ProLLaMA:用于多任务蛋白质语言处理的蛋白质大语言模型 作者:L. Lv, Z. Lin,

学生住宿的未来是什么?

What is the future for student accommodation?

HEPI 总监 Nick Hillman 最近在碎片大厦举行的 QX 学生住宿洞察晚会上发表了以下讲话。我想从积极的方面开始,因为 18 岁年轻人对高等教育的需求同比略有上升,至少根据 2026/27 学年早期的 UCAS 数据来看是这样。需求的小幅上升让那些[…]帖子“学生住宿的未来是什么?”感到困惑。首先出现在 HEPI 上。

Promptware 杀伤链

The Promptware Kill Chain

针对现代生成人工智能 (AI) 大语言模型 (LLM) 的攻击构成了真正的威胁。然而,围绕这些攻击及其潜在防御的讨论是危险的短视。主流叙述集中在“即时注入”,这是一组将指令嵌入到 LLM 的输入中的技术,旨在执行恶意活动。这个术语暗示了一种简单、单一的漏洞。这种框架掩盖了更加复杂和危险的现实。对基于 LLM 的系统的攻击已演变成一类独特的恶意软件执行机制,我们将其称为“提示软件”。在...

并行轨道变压器:通过减少同步实现快速 GPU 推理

Parallel Track Transformers: Enabling Fast GPU Inference with Reduced Synchronization

基于 Transformer 的大型语言模型 (LLM) 的高效大规模推理仍然是一个基本的系统挑战,经常需要多 GPU 并行性来满足严格的延迟和吞吐量目标。传统的张量并行性会分解跨设备的矩阵运算,但会引入大量的 GPU 间同步,从而导致通信瓶颈和可扩展性下降。我们提出了并行轨道(PT)变压器,这是一种新颖的架构范例,可以重组计算以最小化跨设备依赖性。 PT 实现了高达 16 倍的减少……

ClickHouse将获得LLM申请的监控功能

ClickHouse получит функции мониторинга LLM-приложений

随着数据平台玩家试图成为人工智能反馈循环的“大师”,数据库分析提供商收购了开源大型语言模型工程系统开发商 Langfuse。

对性的幻想反映了你的性格

What Fantasizing About Sex Says About Your Personality

Hatty Willmoth,科学焦点频繁的性幻想与神经质有关 - 一种可能使您面临一系列身心健康问题风险的人格特质 - 根据...

关于学生贷款利息,三位智者 Ron DEARING、John BROWNE 和 Philip AUGAR 怎么说?

What did the three wise men, Ron DEARING, John BROWNE & Philip AUGAR, say about student loan interest?

HEPI 主任 Nick Hillman OBE 回顾了 Dearing、Browne 和 Augar 的报告,看看它们为当今反对学生贷款的活动提供了哪些教训(如果有的话)。人们(非常)经常说,解决学生贷款系统问题的最佳方法是建立[...]帖子“三位智者罗恩·迪林、约翰·布朗和菲利普·奥格对学生贷款利息有何看法?”首先出现在 HEPI 上。

帮助 AI 代理进行搜索,从大型语言模型中获得最佳结果

Helping AI agents search to get the best results out of large language models

EnCompass 通过回溯和多次尝试来执行 AI 代理程序,找到 LLM 生成的最佳输出集。它可以帮助程序员更有效地与人工智能代理合作。

机制可解释性:法学硕士一探究竟

Mechanistic Interpretability: Peeking Inside an LLM

LLM 的类人认知能力是真是假?信息如何通过神经网络传输?法学硕士里面是否隐藏着知识?《机械可解释性:法学硕士内部窥探》一文首先出现在《走向数据科学》上。

最便宜的云 GPU:AI 团队节省计算成本的地方

Cheapest Cloud GPUs: Where AI Teams Save on Compute

企业级 AMD MI355X 指南,涵盖 AI 推理、LLM 培训、内存扩展、性能权衡和部署策略。