推理关键词检索结果

得益于人工智能推理工作,云原生计算即将爆发

Cloud-native computing is poised to explode, thanks to AI inference work

CNCF 领导者预测未来 18 个月内云原生计算的人工智能工作将增加数千亿美元。

动物使用大脑的这一部分进行推理

Animals use this part of the brain to make inferences

研究人员已经确定了大脑的一部分充当“推理引擎”。

人工智能大脑内部:记忆与推理

Inside the AI brain: memory vs. reasoning

最近的研究表明,人工智能语言模型将记忆和推理存储在完全独立的神经回路中,这表明机器以不同的方式“思考”和“记忆”。这一发现引领了创建人工智能系统的道路,该系统可以忘记敏感数据,同时保留其智能。

罗伯特·诺齐克 — 像早熟的学生一样推理

Robert Nozick — reasoning like a precocious schoolboy

很高兴阅读诺齐克的书籍和文章。它们充满了发人深省的论点和优雅的推理。同时,他的聪慧又带着几分早熟小学生的气息。他就像一个质疑十八岁投票权规则的人,认为那些十八岁的人不 [...]

合同 AI 障碍:经济学、推理 + 即时工程

Contract AI Barriers: Economics, Reasoning + Prompt Engineering

作者:Pedram Abrari,Pramata 首席技术官。在本系列的前两篇文章中,我们介绍了从...实现价值的前六大技术挑战

在日本和澳大利亚推出针对 Claude Sonnet 4.5 和 Haiku 4.5 的 Amazon Bedrock 跨区域推理

Introducing Amazon Bedrock cross-Region inference for Claude Sonnet 4.5 and Haiku 4.5 in Japan and Australia

こんにちは,你好。 Anthropic 最近推出的 Claude Sonnet 4.5 和 Claude Haiku 4.5(现已在 Amazon Bedrock 上提供)标志着生成式 AI 模型的重大飞跃。这些最先进的模型擅长复杂的代理任务、编码和企业工作负载,为开发人员提供增强的功能。除了新型号之外,我们很高兴地宣布 [...]

推理的剃刀:推理提高了准确性,但会损害安全和幻觉检测中关键操作点的回忆

Reasoning’s Razor: Reasoning Improves Accuracy but Can Hurt Recall at Critical Operating Points in Safety and Hallucination Detection

推理已成为大型语言模型 (LLM) 的核心范式,不断提高各种基准的准确性。然而,它是否适合精度敏感的任务仍不清楚。我们提出了第一个在严格的低误报率(FPR)制度下分类任务推理的系统研究。我们的分析涵盖两项任务——安全检测和幻觉检测——使用标准法学硕士和大型推理模型(LRM)在微调和零样本设置下进行评估。我们的结果揭示了一个明显的权衡:Think On(推理增强)生成改进......

强化学习通过自适应揭示基本原理进行推理

RL for Reasoning by Adaptively Revealing Rationales

我们提出,来自部分专家演示的强化学习(RL)不仅仅是一种训练启发式方法,而且是解决复杂序列生成任务的一个有前景的框架。监督微调(SFT)依赖于密集的真实标签,随着序列长度的增长,其成本也越来越高。另一方面,强化学习则面临着稀疏奖励和组合大输出空间的问题。我们通过引入自适应回溯(AdaBack)来解决这个问题,这是一种按样本课程学习算法,在训练期间仅显示目标输出的部分前缀。该...

高通加速数据中心推理

В Qualcomm ускоряют логические выводы в дата-центрах

AI200 和 AI250 提高特定 AI 工作负载的性能和能源效率。

饮水机闲聊,第一集。 9:人工智能和法学硕士中“思考”和“推理”的真正含义是什么

Water Cooler Small Talk, Ep. 9: What “Thinking” and “Reasoning” Really Mean in AI and LLMs

理解人工智能如何模拟“理性”,以及为什么它不是人类在思考时所做的事情The post Water Cooler Small Talk,Ep. 9:人工智能和法学硕士中“思考”和“推理”的真正含义首先出现在《走向数据科学》上。

通过多步提示和目标推理在实体链接中利用大型语言模型的力量

Leveraging Power of Large Language Model in Entity Linking via Multi-step Prompting and Targeted Reasoning

实体链接 (EL) 传统上依赖于大型注释数据集和广泛的模型微调。虽然最近的小样本方法通过提示来利用大型语言模型 (LLM) 来减少训练要求,但由于昂贵的基于 LLM 的推理,它们常常效率低下。 ARTER(自适应路由和目标实体推理)提出了一种结构化管道,通过策略性地结合候选生成、基于上下文的评分、自适应路由和选择性推理,无需深度微调即可实现高性能。 ARTER 计算一小组...

错误指定的基于仿真的推理中的归纳域转移

Inductive Domain Transfer In Misspecified Simulation-Based Inference

基于模拟的推理 (SBI) 是一种统计推理方法,用于在可能性难以处理但可以进行模拟时估计物理系统的潜在参数。在实践中,SBI 经常受到模型错误指定的阻碍——由于固有的建模简化而导致模拟和现实世界观察结果之间的不匹配。 RoPE 是一种最新的 SBI 方法,它通过两阶段域传输过程解决了这一挑战,该过程将半监督校准与基于最佳传输 (OT) 的分布对齐相结合。然而,RoPE 以完全传导的方式运行……

最佳推理模型 API |比较成本、环境和可扩展性

Best Reasoning Model APIs | Compare Cost, Context & Scalability

使用 Clarifai Local Runners 通过公共 API 在本地运行 Hugging Face 模型。在您自己的硬件上构建、测试和扩展 AI 工作负载。

Clarifai 11.9:推出针对代理 AI 推理进行优化的 Clarifai 推理引擎

Clarifai 11.9: Introducing Clarifai Reasoning Engine Optimized for Agentic AI Inference

Clarifai 推理引擎、新工具包、Qwen 模型和 GPU 选项,可实现更快、优化的 AI 工作负载。

向中国出售芯片仍然是一个糟糕的主意

Selling Chips to China Is Still a Terrible Idea

我们应该让中国努力满足自己的推理需求,而不是通过向中国运送美国设计的芯片来缓解压力。向中国出售芯片仍然是一个糟糕的想法的帖子首先出现在美国企业研究所 - AEI 上。

设计价值一致的自动驾驶汽车:从道德困境到冲突敏感设计

Designing value-aligned autonomous vehicles: from moral dilemmas to conflict-sensitive design

自治系统越来越多地面临充满价值的选择。这篇博文介绍了设计“冲突敏感”自主交通代理的想法,该代理可以明确识别、推理相互竞争的道德、法律和社会价值观并据此采取行动。我们提出了价值一致的操作设计域(VODD)的概念——一个嵌入利益相关者价值层次结构和上下文移交规则的框架[...]

Ed Zitron 发现 OpenAI 及其旗舰 ChatGPT 的致命缺陷了吗?

Has Ed Zitron Found the Fatal Flaw with OpenAI and Its Flagship ChatGPT?

英国《金融时报》重新报道了 Ed Zitron 关于 OpenAI 推理成本和真实性的谨慎但看似毁灭性的调查结果。

OmniLex 获得 450 万美元用于法律研究 + AI 评论

OmniLex Bags $4.5m For Legal Research + AI Commentary

瑞士法律研究初创公司 Omnilex 已筹集 450 万美元种子轮融资,由 Founderful 领投。它利用免费的法律数据并提供“推理环境”......