llm关键词检索结果

Glen Tullman — 以消费者为导向的护理以及医疗保健领域人工智能寻路的兴起

Glen Tullman — Consumer-Directed Care and the Rise of AI-Powered WayFinding in Healthcare

执行摘要。随着医疗保健变得更加分散和昂贵,Transcarent 首席执行官 Glen Tullman 解释了为什么由生成式人工智能驱动的消费者导向平台正在成为下一个结构性转变。他概述了 WayFinding 如何从搜索转向代理行动,为什么一致的激励比添加的功能更重要,以及负责任的自动化必须如何让临床医生坚定地 [...]

P-EAGLE:通过 vLLM 中的并行推测解码实现更快的 LLM 推理

P-EAGLE: Faster LLM inference with Parallel Speculative Decoding in vLLM

在这篇文章中,我们将解释 P-EAGLE 的工作原理、如何将其集成到从 v0.16.0 (PR#32887) 开始的 vLLM 中,以及如何通过预先训练的检查点为其提供服务。

为什么关心 LLM 中的提示缓存?

Why Care About Prompt Caching in LLMs?

使用提示缓存优化 LLM 调用的成本和延迟The post Why Care About Prompt Caching in LLMs?首先出现在《走向数据科学》上。

识别法学硕士的大规模互动

Identifying Interactions at Scale for LLMs

了解复杂机器学习系统的行为,特别是大型语言模型 (LLM),是现代人工智能的一项关键挑战。可解释性研究旨在使决策过程对模型构建者和受影响的人类更加透明,这是迈向更安全、更值得信赖的人工智能的一步。为了获得全面的理解,我们可以通过不同的视角来分析这些系统:特征归因,它隔离驱动预测的特定输入特征(Lundberg & Lee,2017;Ribeiro et al.,2022);数据归因,将模型行为与有影响力的训练示例联系起来(Koh&Liang,2017;Ilyas 等人,2022);以及机械可解释性,它剖析了内部组件的功能(Conmy 等人,2023;Sharkey 等人,2025)。在这些观点

使用 NVIDIA Nemotron 3 Super 通过 DataRobot 构建企业级 Agentic AI

Build enterprise-ready Agentic AI with DataRobot using NVIDIA Nemotron 3 Super

随着 NVIDIA Nemotron 3 Super 的到来,组织现在可以使用专为协作、多代理企业工作负载而构建的高精度推理模型。 Nemotron 3 Super 完全开放,可以在任何地方进行定制和安全部署。然而,拥有像 Nemotron 3 Super 这样强大的大语言模型 (LLM) 只是一个起跑线。真正的...使用 NVIDIA Nemotron 3 Super 与 DataRobot 构建企业级 Agentic AI 帖子首先出现在 DataRobot 上。

人工智能聊天机器人可以有效地影响选民——无论向哪个方向

AI chatbots can effectively sway voters – in either direction

Bart Fish 和人工智能的强力工具 / 行为力量 / 获得 CC-BY 4.0 许可 作者:Patricia Waldron 人工智能影响选举结果的潜力是公众关注的一个主要问题。两篇新论文在四个国家进行了实验,证明由大型语言模型 (LLM) 驱动的聊天机器人非常有效 [...]

加速自定义 LLM 部署:使用 Oumi 进行微调并部署到 Amazon Bedrock

Accelerate custom LLM deployment: Fine-tune with Oumi and deploy to Amazon Bedrock

在这篇文章中,我们将展示如何在 Amazon EC2 上使用 Oumi 微调 Llama 模型(可以选择使用 Oumi 创建合成数据)、在 Amazon S3 中存储工件以及使用自定义模型导入部署到 Amazon Bedrock 进行托管推理。

每个 LLM 工程师都应该知道的 10 个 Python 库

10 Python Libraries Every LLM Engineer Should Know

有兴趣成为法学硕士工程师吗?以下是您的工作所必需的 Python 库的列表。

人工智能提示出现网络威胁

AI Prompts Emerging as Cyber Threats

为什么重要:AI 提示作为网络威胁出现,探讨了提示注入如何在不使用恶意软件代码的情况下利用 LLM。

模型上下文协议获得动力

Model Context Protocol Gains Momentum

为什么重要:随着人工智能领导者支持无缝 LLM 上下文共享的新标准,模型上下文协议获得了动力。

LLM 培训转变推动 AI 飞跃

LLM Training Shift Powers AI Leap

为什么重要:法学硕士培训转变为 AI Leap 探索了 RLHF 和指令调整等新培训方法如何促进人工智能。

TokenBreak 漏洞绕过 AI 防御

TokenBreak Exploit Bypasses AI Defenses

为什么重要:TokenBreak 利用通过操纵标记化来逃避 LLM 内容审核系统来绕过 AI 防御。

较短的 AI 提示提高准确性

Shorter AI Prompts Improve Accuracy

为什么重要:较短的 AI 提示提高准确性揭示了简洁的提示如何提高 LLM 性能并降低复杂性。

什么是LPU?语言处理单元|人工智能推理的未来

What is LPU? Language Processing Units | The Future of AI Inference

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

Clarifai 与其他推理提供商:Groq、Fireworks、Together AI

Clarifai vs Other Inference Providers: Groq, Fireworks, Together AI

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

vLLM vs Triton vs TGI:选择正确的 LLM 服务框架

vLLM vs Triton vs TGI: Choosing the Right LLM Serving Framework

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

当合法人工智能听起来正确但跨国界失败时

When Legal AI Sounds Right But Fails Across Borders

作者:Michael Krallmann,TransLegal 首席执行官。法律人工智能已经达到了令人不安的成熟阶段。一方面,输出具有表面可信度,读得好,遵循......

可塑性思维:背景积累驱动LLM的信念漂移

The malleable mind: context accumulation drives LLM’s belief drift

在接受了包含 80,000 个保守政治哲学单词的数据集的训练后,Grok-4 在超过四分之一的时间里改变了其输出对政治问题的立场。这没有任何对抗性提示——训练数据的变化就足够了。由于记忆机制和研究代理 [1, 2] 使法学硕士能够积累 [...]