Alvaro R. Smith是中国,台湾和蒙古的副助理助理秘书。在这一职位上,他担任中国,台湾和蒙古的所有事物战争部长的首席顾问,是政策与战略制定,监督,当局审查以及国家级别的机构间整合的唯一枢纽,以使该部门在
Electromate Adds Kollmorgen Essentials™ Servo Motion System to Its Product Lineup
Kollmorgen Essentials 系列将伺服电机、驱动器和单电缆连接整合到专为工业自动化、包装、物料搬运和仓库系统设计的优化套件中。通过预先配置关键轴配置和标准化接口,Essentials 解决方案有助于缩短开发时间、简化采购并缩短部署时间。
PewDiePie har byggt sitt eget AI-system ChatOS
PewDiePie 在本地多 GPU 机架上构建了一个名为 ChatOS 的自托管 AI 系统,无需云服务即可运行大型开放模型。这是瑞典人 Felix Kjellberg (PewDiePie) 设计的一个很酷且令人印象深刻的人工智能项目或迷你实验室。 ChatOS 是一个定制的 Web 界面,PewDiePie 在本地托管开放的 LLM,以实现隐私、控制和低延迟,而不是 […]PewDiePie 构建了自己的 AI 系统 ChatOS 的帖子首次出现在 AI 新闻中。
Beginner’s Guide to Data Extraction with LangExtract and LLMs
如果您需要从文本中提取特定数据,LangExtract 提供了一种快速、灵活且适合初学者的方法。
Policy Maps: Tools for Guiding the Unbounded Space of LLM Behaviors
人工智能政策为人工智能模型的可接受行为设定了界限,但这在大型语言模型 (LLM) 的背景下具有挑战性:如何确保覆盖广阔的行为空间?我们引入了政策地图,这是一种受物理地图制作实践启发的人工智能政策设计方法。政策地图不是以全面覆盖为目标,而是通过有意识的设计选择来帮助有效导航,了解哪些方面要捕获,哪些方面要抽象。借助政策投影仪(一种用于设计法学硕士政策地图的交互式工具),人工智能从业者可以调查模型的情况……
“Systems thinking helps me put the big picture front and center”
郭帅谈深度研究代理、分析型人工智能与基于 LLM 的代理以及系统思维“系统思维帮助我将大局置于中心位置”首先出现在《走向数据科学》上。
Build LLM Agents Faster with Datapizza AI
新的 GenAI 框架“意大利制造”使用 Datapizza AI 更快地构建 LLM 代理一文首先出现在 Towards Data Science 上。
推理已成为大型语言模型 (LLM) 的核心范式,不断提高各种基准的准确性。然而,它是否适合精度敏感的任务仍不清楚。我们提出了第一个在严格的低误报率(FPR)制度下分类任务推理的系统研究。我们的分析涵盖两项任务——安全检测和幻觉检测——使用标准法学硕士和大型推理模型(LRM)在微调和零样本设置下进行评估。我们的结果揭示了一个明显的权衡:Think On(推理增强)生成改进......
4 Techniques to Optimize Your LLM Prompts for Cost, Latency and Performance
了解如何大幅提高 LLM 申请的性能帖子 4 条优化 LLM 提示成本、延迟和性能的技术首先出现在《走向数据科学》上。
IBMs släpper öppen källkod Granite 4.0 Nano – kompakt LLM för laptop och mobil
令人惊讶的是,IBM 向更易于使用的 AI 迈出了大胆的一步,发布了开源 Granite 4.0 Nano,这是一个由四种紧凑语言模型组成的系列,实际上可以在笔记本电脑或手机上运行。 Granite 4.0 模型:这些模型足够小,可以直接在浏览器中运行,而无需 […]IBM 发布开源 Granite 4.0 Nano – 适用于笔记本电脑和移动设备的紧凑型 LLM 的帖子首次出现在 AI 新闻中。
Memory-Efficient Backpropagation for Fine-Tuning LLMs on Resource-Constrained Mobile Devices
使用反向传播对大型语言模型 (LLM) 进行微调(即使对于 LoRA 等参数子集)可能比推理更消耗内存,并且对于资源受限的移动设备来说通常被认为是不切实际的。零阶优化 (ZO) 等替代方法可以大大减少内存占用,但代价是模型收敛速度显着减慢(比反向传播多 10 倍到 100 倍的步骤)。我们提出了一种在移动设备上实现反向传播 (MeBP) 的内存高效实现,它可以在内存使用和计算之间提供更好的权衡……
实体链接 (EL) 传统上依赖于大型注释数据集和广泛的模型微调。虽然最近的小样本方法通过提示来利用大型语言模型 (LLM) 来减少训练要求,但由于昂贵的基于 LLM 的推理,它们常常效率低下。 ARTER(自适应路由和目标实体推理)提出了一种结构化管道,通过策略性地结合候选生成、基于上下文的评分、自适应路由和选择性推理,无需深度微调即可实现高性能。 ARTER 计算一小组...
Breaking Down Video LLM Benchmarks: Knowledge, Spatial Perception, or True Temporal Understanding?
本文在 NeurIPS 2025 的 Evaluating the Evolving LLM Lifecycle Workshop 上被接受。现有的视频理解基准通常将基于知识的问题和纯粹基于图像的问题混为一谈,而不是明确隔离模型的时间推理能力,而这是区分视频理解与其他模态的关键方面。我们发现了两个主要限制,这些限制掩盖了较高的分数是否真正表明对视频中的动态内容有更强的理解:(1)强大的语言先验,模型可以在不观看视频的情况下回答问题;和(2)...
ODKE+: Ontology-Guided Open-Domain Knowledge Extraction with LLMs
知识图 (KG) 是许多人工智能应用的基础,但保持其新鲜度和完整性仍然成本高昂。我们推出 ODKE+,这是一个生产级系统,可以自动从网络资源中高精度地提取和摄取数百万个开放域事实。 ODKE+ 将模块化组件组合成可扩展的管道:(1) 提取启动器检测丢失或过时的事实,(2) 证据检索器收集支持文档,(3) 混合知识提取器对大型语言模型 (LLM) 应用基于模式的规则和本体引导提示,(4) ...
Bias after Prompting: Persistent Discrimination in Large Language Models
从偏见转移假设 (BTH) 的先前工作中可以得出的一个危险假设是,偏见不会从预先训练的大型语言模型 (LLM) 转移到适应模型。我们通过研究提示适应下因果模型中的 BTH 来验证这一假设,因为提示是现实世界应用中非常流行且易于使用的适应策略。与之前的工作相比,我们发现偏见可以通过提示转移,而流行的基于提示的缓解方法并不能始终阻止偏见的转移。具体来说,相关性......
Run vLLM Models Locally with a Secure Public API
使用 vLLM 在本地运行 LLM,并使用 Clarifai Local Runners 通过安全的公共 API 公开它们。
米連邦地裁、Googleへの是正措置を公表~一般検索サービス市場における独占排除
■摘要 2025 年 9 月 2 日,美国哥伦比亚特区地方法院就 Google 通用搜索服务中的反竞争行为发布了一项命令。本判决(以下简称判决)是应原告(美国和各州)在判决(责任审判)认定 Google 的行为具有反竞争行为后寻求补救(补救措施)的请求而发布的。该判决否定了采取出售部分业务等结构性补救措施,也不批准出售Chrome和Android。这是因为原告无法证明反竞争行为与结构性补救措施之间存在“实质性因果关系”,也因为原告无法证明“不太严重的补救措施”是不够的。另一方面,除了单纯的禁令之外,法院还要求向竞争对手提供信息。首先,它暂停了谷歌与合同制造商之间的合同,这些合同使谷歌搜索成为默