llm关键词检索结果

Glen Tullman — 以消费者为导向的护理以及医疗保健领域人工智能寻路的兴起

Glen Tullman — Consumer-Directed Care and the Rise of AI-Powered WayFinding in Healthcare

执行摘要。随着医疗保健变得更加分散和昂贵,Transcarent 首席执行官 Glen Tullman 解释了为什么由生成式人工智能驱动的消费者导向平台正在成为下一个结构性转变。他概述了 WayFinding 如何从搜索转向代理行动,为什么一致的激励比添加的功能更重要,以及负责任的自动化必须如何让临床医生坚定地 [...]

什么是LPU?语言处理单元|人工智能推理的未来

What is LPU? Language Processing Units | The Future of AI Inference

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

Clarifai 与其他推理提供商:Groq、Fireworks、Together AI

Clarifai vs Other Inference Providers: Groq, Fireworks, Together AI

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

vLLM vs Triton vs TGI:选择正确的 LLM 服务框架

vLLM vs Triton vs TGI: Choosing the Right LLM Serving Framework

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

当合法人工智能听起来正确但跨国界失败时

When Legal AI Sounds Right But Fails Across Borders

作者:Michael Krallmann,TransLegal 首席执行官。法律人工智能已经达到了令人不安的成熟阶段。一方面,输出具有表面可信度,读得好,遵循......

可塑性思维:背景积累驱动LLM的信念漂移

The malleable mind: context accumulation drives LLM’s belief drift

在接受了包含 80,000 个保守政治哲学单词的数据集的训练后,Grok-4 在超过四分之一的时间里改变了其输出对政治问题的立场。这没有任何对抗性提示——训练数据的变化就足够了。由于记忆机制和研究代理 [1, 2] 使法学硕士能够积累 [...]

适用于 AI API 的最具成本效益的小型模型

Top Cost-Efficient Small Models for AI APIs

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

嘿ChatGPT,给我写一篇虚构的论文:这些LLM愿意进行学术造假

Hey ChatGPT, write me a fictional paper: these LLMs are willing to commit academic fraud

研究发现,主流聊天机器人对故意制造请求表现出不同程度的抵制

来认识一下世界上最小的人工智能超级计算机——它的制造者说,它具有“博士级智能”,并且可以装进你的口袋

Meet the world's smallest AI supercomputer — it packs 'doctorate-level intelligence', its makers say, and can fit into your pocket

这个便携式计算引擎能够运行 1200 亿个参数的 LLM,大约是 GPT-3 的三倍,而无需访问互联网或云。

如何停止使用 GLP-1 药物而不体重反弹

How to Come Off GLP-1 Drugs and Not Regain Weight

Hatty Willmoth,《科学焦点》 新型减肥药有望带来惊人的效果,并且在大多数情况下确实能够实现。但是,如果经过几个月的每周注射后,您达到了目标......

论智能与判断分离的不可能性:AI 对齐过滤的计算难题

On the Impossibility of Separating Intelligence from Judgment: The Computational Intractability of Filtering for AI Alignment

随着大型语言模型 (LLM) 部署的增加,人们担心它们可能被滥用来生成有害内容。我们的工作研究对齐挑战,重点是过滤器以防止生成不安全信息。两个自然的干预点是在输入提示到达模型之前对其进行过滤,以及在生成后对输出进行过滤。我们的主要结果证明了过滤提示和输出方面的计算挑战。首先,我们表明存在没有有效提示过滤器的法学硕士:对抗性提示......

保险公司生成式人工智能使用状况调查结果(欧洲)——EIOPA 报告简介

保険会社における生成AIの利用状況の調査結果(欧州)-EIOPAの報告書の紹介

■摘要 2026年2月1日,EIOPA(欧洲保险和职业养老金管理局)发布了欧洲保险业生成式人工智能的使用状况报告。这是 EIOPA 于 2025 年进行的关于生成式 AI 的实施状况和风险的调查结果的总结。这表明欧洲保险业引入生成式人工智能尚处于早期阶段,但进展迅速,除了技术创新之外,强有力的治理和风险管理也至关重要。 ■目录 1 - 简介 2 - 报告内容 1 |生成式人工智能的使用背景和现状2 |引入生成式人工智能3的挑战和风险|治理问题 3 - 结论 2026 年 2 月 1 日,EIOPA(欧洲保险和职业养老金管理局)发布了一份关于欧洲保险业生成式人工智能使用状况的报告 1。本报告总结

LLM 时代的数据工程

Data Engineering for the LLM Age

优秀的法学硕士需要优秀的数据。探索塑造人工智能就绪数据工程未来的管道、工具和 RAG 架构

十大 LLM 评估工具

The Top 10 LLM Evaluation Tools

LLM 评估工具可帮助团队衡量模型在各种任务中的执行情况,包括推理、总结、检索、编码和指令遵循。他们分析性能趋势,检测幻觉,根据实际情况验证输出,并在微调或即时工程期间对改进进行基准测试。如果没有强大的评估框架,组织就会面临部署不可预测或有害人工智能的风险……阅读更多»“十大法学硕士评估工具”一文首先出现在《大数据分析新闻》上。

零浪费代理 RAG:设计缓存架构以最大限度地减少延迟和 LLM 成本

Zero-Waste Agentic RAG: Designing Caching Architectures to Minimize Latency and LLM Costs at Scale

通过验证感知的多层缓存将 LLM 成本降低 30% 后零浪费代理 RAG:设计缓存架构以最大限度地减少延迟和大规模 LLM 成本首先出现在《走向数据科学》上。

扩展搜索相关性:利用 LLM 生成的判断提高应用商店排名

Scaling Search Relevance: Augmenting App Store Ranking with LLM-Generated Judgments

大型商业搜索系统优化相关性以推动成功的会话,帮助用户找到他们正在寻找的内容。为了最大化相关性,我们利用两个互补的目标:行为相关性(用户倾向于点击或下载的结果)和文本相关性(结果的语义适合查询)。一个持续存在的挑战是相对于丰富的行为相关性标签而言,专家提供的文本相关性标签的稀缺。我们首先通过系统地评估 LLM 配置来解决这个问题,发现一个专门的、经过微调的模型显着......

TTFT 与吞吐量:哪个指标对用户影响更大?

TTFT vs Throughput: Which Metric Impacts Users More?

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

新方法可以提高LLM培训效率

New method could increase LLM training efficiency

通过利用空闲计算时间,研究人员可以在保持准确性的同时将模型训练速度提高一倍。