llm关键词检索结果

Cargo.one 为 Hellmann 航空货运数字化的下一步提供动力

cargo.one powers Hellmann’s next step in air freight digitalisation

Hellmann Worldwide Logistics (Hellmann) 宣布与数字航空货运平台 Cargo 建立新的战略技术合作伙伴关系。Post Cargo.one 为 Hellmann 航空货运数字化的下一步提供支持,该文章首先出现在《航空商业新闻》上。

卢比诺 - 霍尔曼·西尔瓦纳(Rubino-Hallman Silvana)

Alvaro R. Smith

Alvaro R. Smith是中国,台湾和蒙古的副助理助理秘书。在这一职位上,他担任中国,台湾和蒙古的所有事物战争部长的首席顾问,是政策与战略制定,监督,当局审查以及国家级别的机构间整合的唯一枢纽,以使该部门在

Electromate 将 Kollmorgen Essentials™ 伺服运动系统添加到其产品阵容

Electromate Adds Kollmorgen Essentials™ Servo Motion System to Its Product Lineup

Kollmorgen Essentials 系列将伺服电机、驱动器和单电缆连接整合到专为工业自动化、包装、物料搬运和仓库系统设计的优化套件中。通过预先配置关键轴配置和标准化接口,Essentials 解决方案有助于缩短开发时间、简化采购并缩短部署时间。

ExpertLens:激活控制功能具有高度可解释性

ExpertLens: Activation Steering Features Are Highly Interpretable

本文在 NeurIPS 2025 的统一神经模型表示研讨会 (UniReps) 上被接受。大语言模型 (LLM) 中的激活引导方法已成为执行有针对性的更新以增强生成语言的有效方法,而无需大量适应数据。我们询问激活引导方法发现的特征是否可以解释。我们使用激活控制研究中的“寻找专家”方法来识别负责特定概念(例如“猫”)的神经元,并表明 ExpertLens,即检查这些......

LLM 支持的时间序列分析

LLM-Powered Time-Series Analysis

第 2 部分:高级模型开发提示由法学硕士支持的时间序列分析首先出现在《走向数据科学》上。

聊天法学硕士。对我们一体化人工智能平台的诚实回顾

ChatLLM. An Honest Review of Our All-in-One AI Platform

ChatLLM 将所有主要的 AI 模型(GPT-5、Claude、Gemini、Grok 等)汇集到一个经济实惠的平台中。每月只需​​ 10 美元,您就可以获得一把瑞士军刀的 AI 工具,用于编写、编码、分析和自动化。

链接

Links

麻疹暴发扩展到19个州。商业健康计划的加速批准药物以及最近的案例研究。将IRA毒品价格谈判扩展到商业计划? “肯尼迪转向自闭症研究的疫苗怀疑论者”,为什么LLMS在经济学上如此出色?最昂贵的州开展业务。

PewDiePie 打造了自己的 AI 系统 ChatOS

PewDiePie har byggt sitt eget AI-system ChatOS

PewDiePie 在本地多 GPU 机架上构建了一个名为 ChatOS 的自托管 AI 系统,无需云服务即可运行大型开放模型。这是瑞典人 Felix Kjellberg (PewDiePie) 设计的一个很酷且令人印象深刻的人工智能项目或迷你实验室。 ChatOS 是一个定制的 Web 界面,PewDiePie 在本地托管开放的 LLM,以实现隐私、控制和低延迟,而不是 […]PewDiePie 构建了自己的 AI 系统 ChatOS 的帖子首次出现在 AI 新闻中。

使用 LangExtract 和 LLM 进行数据提取的初学者指南

Beginner’s Guide to Data Extraction with LangExtract and LLMs

如果您需要从文本中提取特定数据,LangExtract 提供了一种快速、灵活且适合初学者的方法。

政策地图:指导 LLM 行为无限空间的工具

Policy Maps: Tools for Guiding the Unbounded Space of LLM Behaviors

人工智能政策为人工智能模型的可接受行为设定了界限,但这在大型语言模型 (LLM) 的背景下具有挑战性:如何确保覆盖广阔的行为空间?我们引入了政策地图,这是一种受物理地图制作实践启发的人工智能政策设计方法。政策地图不是以全面覆盖为目标,而是通过有意识的设计选择来帮助有效导航,了解哪些方面要捕获,哪些方面要抽象。借助政策投影仪(一种用于设计法学硕士政策地图的交互式工具),人工智能从业者可以调查模型的情况……

“系统思维帮助我把大局放在首位和中心位置”

“Systems thinking helps me put the big picture front and center”

郭帅谈深度研究代理、分析型人工智能与基于 LLM 的代理以及系统思维“系统思维帮助我将大局置于中心位置”首先出现在《走向数据科学》上。

使用 Datapizza AI 更快地构建 LLM 代理

Build LLM Agents Faster with Datapizza AI

新的 GenAI 框架“意大利制造”使用 Datapizza AI 更快地构建 LLM 代理一文首先出现在 Towards Data Science 上。

推理的剃刀:推理提高了准确性,但会损害安全和幻觉检测中关键操作点的回忆

Reasoning’s Razor: Reasoning Improves Accuracy but Can Hurt Recall at Critical Operating Points in Safety and Hallucination Detection

推理已成为大型语言模型 (LLM) 的核心范式,不断提高各种基准的准确性。然而,它是否适合精度敏感的任务仍不清楚。我们提出了第一个在严格的低误报率(FPR)制度下分类任务推理的系统研究。我们的分析涵盖两项任务——安全检测和幻觉检测——使用标准法学硕士和大型推理模型(LRM)在微调和零样本设置下进行评估。我们的结果揭示了一个明显的权衡:Think On(推理增强)生成改进......

优化 LLM 成本、延迟和性能提示的 4 种技巧

4 Techniques to Optimize Your LLM Prompts for Cost, Latency and Performance

了解如何大幅提高 LLM 申请的性能帖子 4 条优化 LLM 提示成本、延迟和性能的技术首先出现在《走向数据科学》上。

IBM 发布开源 Granite 4.0 Nano – 适用于笔记本电脑和移动设备的紧凑型法学硕士

IBMs släpper öppen källkod Granite 4.0 Nano – kompakt LLM för laptop och mobil

令人惊讶的是,IBM 向更易于使用的 AI 迈出了大胆的一步,发布了开源 Granite 4.0 Nano,这是一个由四种紧凑语言模型组成的系列,实际上可以在笔记本电脑或手机上运行。 Granite 4.0 模型:这些模型足够小,可以直接在浏览器中运行,而无需 […]IBM 发布开源 Granite 4.0 Nano – 适用于笔记本电脑和移动设备的紧凑型 LLM 的帖子首次出现在 AI 新闻中。

用于在资源受限的移动设备上微调 LLM 的内存高效反向传播

Memory-Efficient Backpropagation for Fine-Tuning LLMs on Resource-Constrained Mobile Devices

使用反向传播对大型语言模型 (LLM) 进行微调(即使对于 LoRA 等参数子集)可能比推理更消耗内存,并且对于资源受限的移动设备来说通常被认为是不切实际的。零阶优化 (ZO) 等替代方法可以大大减少内存占用,但代价是模型收敛速度显着减慢(比反向传播多 10 倍到 100 倍的步骤)。我们提出了一种在移动设备上实现反向传播 (MeBP) 的内存高效实现,它可以在内存使用和计算之间提供更好的权衡……

通过多步提示和目标推理在实体链接中利用大型语言模型的力量

Leveraging Power of Large Language Model in Entity Linking via Multi-step Prompting and Targeted Reasoning

实体链接 (EL) 传统上依赖于大型注释数据集和广泛的模型微调。虽然最近的小样本方法通过提示来利用大型语言模型 (LLM) 来减少训练要求,但由于昂贵的基于 LLM 的推理,它们常常效率低下。 ARTER(自适应路由和目标实体推理)提出了一种结构化管道,通过策略性地结合候选生成、基于上下文的评分、自适应路由和选择性推理,无需深度微调即可实现高性能。 ARTER 计算一小组...

打破视频法学硕士基准:知识、空间感知还是真正的时间理解?

Breaking Down Video LLM Benchmarks: Knowledge, Spatial Perception, or True Temporal Understanding?

本文在 NeurIPS 2025 的 Evaluating the Evolving LLM Lifecycle Workshop 上被接受。现有的视频理解基准通常将基于知识的问题和纯粹基于图像的问题混为一谈,而不是明确隔离模型的时间推理能力,而这是区分视频理解与其他模态的关键方面。我们发现了两个主要限制,这些限制掩盖了较高的分数是否真正表明对视频中的动态内容有更强的理解:(1)强大的语言先验,模型可以在不观看视频的情况下回答问题;和(2)...