调用关键词检索结果

印度央行货币政策:调用以下回购协议以安慰银行

RBI monetary policy: Call below repo to comfort banks

“当然,我们的尝试是让 WACR 尽可能接近政策利率。然而,在这种充满不确定性的时期,我们希望让银行放心,流动性不会出现赤字。因此,我们允许 WACR 处于 LAF 走廊的低端,”印度央行行长桑杰·马尔霍特拉 (Sanjay Malhotra) 在政策发布后的新闻发布会上表示。

你的 ReAct 代理浪费了 90% 的重试 - 以下是阻止它的方法

Your ReAct Agent Is Wasting 90% of Its Retries — Here’s How to Stop It

大多数 ReAct 风格的代理都默默地将重试预算浪费在永远不会成功的错误上。在 200 个任务的基准测试中,90.8% 的重试都花在了幻觉的工具调用上——不是模型错误,而是架构缺陷。本文展示了为什么即时调整无法解决这个问题,以及完全消除浪费重试的三种结构变化。 文章《你的 ReAct Agent 正在浪费 90% 的重试 — 以下是如何阻止它》首先出现在 Towards Data Science 上。

在构建之前如何在演练中设计和运行代理

How to design and run an agent in rehearsal – before building it

大多数人工智能代理的失败是由于设计意图与生产现实之间的差距。开发人员经常花费数天的时间进行构建,却发现升级逻辑或工具调用在野外失败,迫使完全重新启动。 DataRobot Agent Assist 弥补了这一差距。它是一种自然语言 CLI 工具,可让您设计、模拟和...如何在构建之前预演中设计和运行代理一文首先出现在 DataRobot 上。

阿耳忒弥斯二号月球宇航员首次与国际空间站进行“船对船”呼叫

In a first, Artemis II moon astronauts make ‘ship to ship’ call to ISS

阿耳忒弥斯二号机组人员与国际空间站宇航员之间的交流标志着月球任务首次调用轨道栖息地

将 AI 代理视为身份如何降低企业 AI 风险

How Treating AI Agents as Identities Can Reduce Enterprise AI Risk

AI 代理不再是实验性的。他们运行生产工作负载、调用 API、查询数据库、配置基础设施以及跨云环境做出决策。讽刺的是,这些代理最终往往比构建它们的开发人员拥有更多的访问权限。当出现问题时,他们以真实的凭证、真实的权限和真实的后果进行操作。大多数企业安全 [...]

每个安全团队都应该拥有的 5 个 AWS AI 控制

5 AWS AI Controls Every Security Team Should Have

大多数团队在应用层管理 AI 工作负载。他们为其 Bedrock 代理配置护栏,确定每个工作负载的 IAM 角色范围,并围绕批准的模型构建策略。该规则很重要,但当开发人员启动新帐户或直接调用模型而不接触应用程序堆栈时,它就会崩溃。组织级执法 [...]

在亚太地区(新西兰)使用 Amazon Bedrock 运行生成式 AI 推理

Run Generative AI inference with Amazon Bedrock in Asia Pacific (New Zealand)

今天,我们很高兴地宣布 Amazon Bedrock 现已在亚太地区(新西兰)区域 (ap-southeast-6) 推出。新西兰的客户现在可以直接在奥克兰地区访问 Anthropic Claude 模型(Claude Opus 4.5、Opus 4.6、Sonnet 4.5、Sonnet 4.6 和 Haiku 4.5)和 Amazon (Nova 2 Lite) 模型,并进行跨区域推理。在这篇文章中,我们将探讨新西兰区域的跨区域推理的工作原理、通过地理和全球路由提供的模型,以及如何开始首次 API 调用。我们

Kimi K2.5是什么?架构、基准测试和 AI 基础设施指南

What Is Kimi K2.5? Architecture, Benchmarks & AI Infra Guide

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

llama.cpp:快速本地 LLM 推理、硬件选择和调整

llama.cpp: Fast Local LLM Inference, Hardware Choices & Tuning

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

Flash注意2:减少GPU内存并加速Transformers

Flash Attention 2: Reducing GPU Memory and Accelerating Transformers

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

为什么关心 LLM 中的提示缓存?

Why Care About Prompt Caching in LLMs?

使用提示缓存优化 LLM 调用的成本和延迟The post Why Care About Prompt Caching in LLMs?首先出现在《走向数据科学》上。

什么是LPU?语言处理单元|人工智能推理的未来

What is LPU? Language Processing Units | The Future of AI Inference

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

Clarifai 与其他推理提供商:Groq、Fireworks、Together AI

Clarifai vs Other Inference Providers: Groq, Fireworks, Together AI

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

vLLM vs Triton vs TGI:选择正确的 LLM 服务框架

vLLM vs Triton vs TGI: Choosing the Right LLM Serving Framework

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。