llm关键词检索结果

Glen Tullman — 以消费者为导向的护理以及医疗保健领域人工智能寻路的兴起

Glen Tullman — Consumer-Directed Care and the Rise of AI-Powered WayFinding in Healthcare

执行摘要。随着医疗保健变得更加分散和昂贵,Transcarent 首席执行官 Glen Tullman 解释了为什么由生成式人工智能驱动的消费者导向平台正在成为下一个结构性转变。他概述了 WayFinding 如何从搜索转向代理行动,为什么一致的激励比添加的功能更重要,以及负责任的自动化必须如何让临床医生坚定地 [...]

加速自定义 LLM 部署:使用 Oumi 进行微调并部署到 Amazon Bedrock

Accelerate custom LLM deployment: Fine-tune with Oumi and deploy to Amazon Bedrock

在这篇文章中,我们将展示如何在 Amazon EC2 上使用 Oumi 微调 Llama 模型(可以选择使用 Oumi 创建合成数据)、在 Amazon S3 中存储工件以及使用自定义模型导入部署到 Amazon Bedrock 进行托管推理。

每个 LLM 工程师都应该知道的 10 个 Python 库

10 Python Libraries Every LLM Engineer Should Know

有兴趣成为法学硕士工程师吗?以下是您的工作所必需的 Python 库的列表。

人工智能提示出现网络威胁

AI Prompts Emerging as Cyber Threats

为什么重要:AI 提示作为网络威胁出现,探讨了提示注入如何在不使用恶意软件代码的情况下利用 LLM。

模型上下文协议获得动力

Model Context Protocol Gains Momentum

为什么重要:随着人工智能领导者支持无缝 LLM 上下文共享的新标准,模型上下文协议获得了动力。

LLM 培训转变推动 AI 飞跃

LLM Training Shift Powers AI Leap

为什么重要:法学硕士培训转变为 AI Leap 探索了 RLHF 和指令调整等新培训方法如何促进人工智能。

TokenBreak 漏洞绕过 AI 防御

TokenBreak Exploit Bypasses AI Defenses

为什么重要:TokenBreak 利用通过操纵标记化来逃避 LLM 内容审核系统来绕过 AI 防御。

较短的 AI 提示提高准确性

Shorter AI Prompts Improve Accuracy

为什么重要:较短的 AI 提示提高准确性揭示了简洁的提示如何提高 LLM 性能并降低复杂性。

什么是LPU?语言处理单元|人工智能推理的未来

What is LPU? Language Processing Units | The Future of AI Inference

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

Clarifai 与其他推理提供商:Groq、Fireworks、Together AI

Clarifai vs Other Inference Providers: Groq, Fireworks, Together AI

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

vLLM vs Triton vs TGI:选择正确的 LLM 服务框架

vLLM vs Triton vs TGI: Choosing the Right LLM Serving Framework

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

当合法人工智能听起来正确但跨国界失败时

When Legal AI Sounds Right But Fails Across Borders

作者:Michael Krallmann,TransLegal 首席执行官。法律人工智能已经达到了令人不安的成熟阶段。一方面,输出具有表面可信度,读得好,遵循......

可塑性思维:背景积累驱动LLM的信念漂移

The malleable mind: context accumulation drives LLM’s belief drift

在接受了包含 80,000 个保守政治哲学单词的数据集的训练后,Grok-4 在超过四分之一的时间里改变了其输出对政治问题的立场。这没有任何对抗性提示——训练数据的变化就足够了。由于记忆机制和研究代理 [1, 2] 使法学硕士能够积累 [...]

适用于 AI API 的最具成本效益的小型模型

Top Cost-Efficient Small Models for AI APIs

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

嘿ChatGPT,给我写一篇虚构的论文:这些LLM愿意进行学术造假

Hey ChatGPT, write me a fictional paper: these LLMs are willing to commit academic fraud

研究发现,主流聊天机器人对故意制造请求表现出不同程度的抵制

来认识一下世界上最小的人工智能超级计算机——它的制造者说,它具有“博士级智能”,并且可以装进你的口袋

Meet the world's smallest AI supercomputer — it packs 'doctorate-level intelligence', its makers say, and can fit into your pocket

这个便携式计算引擎能够运行 1200 亿个参数的 LLM,大约是 GPT-3 的三倍,而无需访问互联网或云。

如何停止使用 GLP-1 药物而不体重反弹

How to Come Off GLP-1 Drugs and Not Regain Weight

Hatty Willmoth,《科学焦点》 新型减肥药有望带来惊人的效果,并且在大多数情况下确实能够实现。但是,如果经过几个月的每周注射后,您达到了目标......

论智能与判断分离的不可能性:AI 对齐过滤的计算难题

On the Impossibility of Separating Intelligence from Judgment: The Computational Intractability of Filtering for AI Alignment

随着大型语言模型 (LLM) 部署的增加,人们担心它们可能被滥用来生成有害内容。我们的工作研究对齐挑战,重点是过滤器以防止生成不安全信息。两个自然的干预点是在输入提示到达模型之前对其进行过滤,以及在生成后对输出进行过滤。我们的主要结果证明了过滤提示和输出方面的计算挑战。首先,我们表明存在没有有效提示过滤器的法学硕士:对抗性提示......