llm关键词检索结果

Glen Tullman — 以消费者为导向的护理以及医疗保健领域人工智能寻路的兴起

Glen Tullman — Consumer-Directed Care and the Rise of AI-Powered WayFinding in Healthcare

执行摘要。随着医疗保健变得更加分散和昂贵,Transcarent 首席执行官 Glen Tullman 解释了为什么由生成式人工智能驱动的消费者导向平台正在成为下一个结构性转变。他概述了 WayFinding 如何从搜索转向代理行动,为什么一致的激励比添加的功能更重要,以及负责任的自动化必须如何让临床医生坚定地 [...]

使用 NVIDIA Nemotron 3 Super 通过 DataRobot 构建企业级 Agentic AI

Build enterprise-ready Agentic AI with DataRobot using NVIDIA Nemotron 3 Super

随着 NVIDIA Nemotron 3 Super 的到来,组织现在可以使用专为协作、多代理企业工作负载而构建的高精度推理模型。 Nemotron 3 Super 完全开放,可以在任何地方进行定制和安全部署。然而,拥有像 Nemotron 3 Super 这样强大的大语言模型 (LLM) 只是一个起跑线。真正的...使用 NVIDIA Nemotron 3 Super 与 DataRobot 构建企业级 Agentic AI 帖子首先出现在 DataRobot 上。

人工智能聊天机器人可以有效地影响选民——无论向哪个方向

AI chatbots can effectively sway voters – in either direction

Bart Fish 和人工智能的强力工具 / 行为力量 / 获得 CC-BY 4.0 许可 作者:Patricia Waldron 人工智能影响选举结果的潜力是公众关注的一个主要问题。两篇新论文在四个国家进行了实验,证明由大型语言模型 (LLM) 驱动的聊天机器人非常有效 [...]

加速自定义 LLM 部署:使用 Oumi 进行微调并部署到 Amazon Bedrock

Accelerate custom LLM deployment: Fine-tune with Oumi and deploy to Amazon Bedrock

在这篇文章中,我们将展示如何在 Amazon EC2 上使用 Oumi 微调 Llama 模型(可以选择使用 Oumi 创建合成数据)、在 Amazon S3 中存储工件以及使用自定义模型导入部署到 Amazon Bedrock 进行托管推理。

每个 LLM 工程师都应该知道的 10 个 Python 库

10 Python Libraries Every LLM Engineer Should Know

有兴趣成为法学硕士工程师吗?以下是您的工作所必需的 Python 库的列表。

人工智能提示出现网络威胁

AI Prompts Emerging as Cyber Threats

为什么重要:AI 提示作为网络威胁出现,探讨了提示注入如何在不使用恶意软件代码的情况下利用 LLM。

模型上下文协议获得动力

Model Context Protocol Gains Momentum

为什么重要:随着人工智能领导者支持无缝 LLM 上下文共享的新标准,模型上下文协议获得了动力。

LLM 培训转变推动 AI 飞跃

LLM Training Shift Powers AI Leap

为什么重要:法学硕士培训转变为 AI Leap 探索了 RLHF 和指令调整等新培训方法如何促进人工智能。

TokenBreak 漏洞绕过 AI 防御

TokenBreak Exploit Bypasses AI Defenses

为什么重要:TokenBreak 利用通过操纵标记化来逃避 LLM 内容审核系统来绕过 AI 防御。

较短的 AI 提示提高准确性

Shorter AI Prompts Improve Accuracy

为什么重要:较短的 AI 提示提高准确性揭示了简洁的提示如何提高 LLM 性能并降低复杂性。

什么是LPU?语言处理单元|人工智能推理的未来

What is LPU? Language Processing Units | The Future of AI Inference

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

Clarifai 与其他推理提供商:Groq、Fireworks、Together AI

Clarifai vs Other Inference Providers: Groq, Fireworks, Together AI

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

vLLM vs Triton vs TGI:选择正确的 LLM 服务框架

vLLM vs Triton vs TGI: Choosing the Right LLM Serving Framework

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

当合法人工智能听起来正确但跨国界失败时

When Legal AI Sounds Right But Fails Across Borders

作者:Michael Krallmann,TransLegal 首席执行官。法律人工智能已经达到了令人不安的成熟阶段。一方面,输出具有表面可信度,读得好,遵循......

可塑性思维:背景积累驱动LLM的信念漂移

The malleable mind: context accumulation drives LLM’s belief drift

在接受了包含 80,000 个保守政治哲学单词的数据集的训练后,Grok-4 在超过四分之一的时间里改变了其输出对政治问题的立场。这没有任何对抗性提示——训练数据的变化就足够了。由于记忆机制和研究代理 [1, 2] 使法学硕士能够积累 [...]

适用于 AI API 的最具成本效益的小型模型

Top Cost-Efficient Small Models for AI APIs

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

嘿ChatGPT,给我写一篇虚构的论文:这些LLM愿意进行学术造假

Hey ChatGPT, write me a fictional paper: these LLMs are willing to commit academic fraud

研究发现,主流聊天机器人对故意制造请求表现出不同程度的抵制

来认识一下世界上最小的人工智能超级计算机——它的制造者说,它具有“博士级智能”,并且可以装进你的口袋

Meet the world's smallest AI supercomputer — it packs 'doctorate-level intelligence', its makers say, and can fit into your pocket

这个便携式计算引擎能够运行 1200 亿个参数的 LLM,大约是 GPT-3 的三倍,而无需访问互联网或云。