Clarifai 12.3: Introducing KV Cache-Aware Routing
Clarifai 12.3 引入了 KV 缓存感知路由。将请求路由到具有相关缓存状态的副本,以实现更快的推理。需要零配置。
Clarifai Reasoning Engine Achieves 414 Tokens Per Second on Kimi K2.5
Clarifai 在 Kimi K2.5 上实现了每秒 414 个令牌,是首批在 Nvidia B200 GPU 上运行的万亿参数推理模型上达到 400+ TPS 的提供商之一。
Clarifai 12.2: Three-Command CLI Workflow for Model Deployment
Clarifai 12.2 引入了用于模型部署的三命令 CLI 工作流程。通过自动 GPU 选择和基础设施配置进行初始化、本地测试并部署到生产环境。
Clarifai vs Other Inference Providers: Groq, Fireworks, Together AI
将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。