可伸缩企业AI的MCP编排| kore.ai

随着模型上下文协议(MCP)的增长动量,管理多个动态MCP服务器的挑战就到了最前沿。

来源:Kore.ai
随着模型上下文协议(MCP)的增长动量,管理多个动态MCP服务器的挑战就到了最前沿。 随着AI代理有可能访问众多服务器的单个查询服务器,编排对于确保准确,有效的响应至关重要。 编排层确定要使用哪种MCP服务器或使用的顺序,尤其是对于涉及多个集成的复杂请求,例如结合来自不同来源的数据。一种治理方法是培训/微调语言模型,以识别基于用户意图的最合适的MCP服务器,如NVIDIA的研究所建议。 另外,诸如Dialoggpt之类的工具可以演变为编排器,从而管理服务器交互以简化工作流程。该编排层确保AI代理保持上下文保持一致,避免对服务器的冲突或多余的调用。MCP的角色超出了单个集成,以塑造更广泛的AI代理生态系统。 (Kore.ai AI代理构建器显示MCP集成到HuggingFace)它已经被视为一种成熟的集成形式,类似于服务器提供专业工具和数据的市场。 这种观点强调了用户对技术复杂性的体验,对非技术利益相关者的MCP神秘化。 考虑下图,模型上下文协议(MCP)是AI代理中垂直集成的关键机制,使其内部组件的无缝协调能够维持和利用各种任务跨各种任务的上下文理解。 MCP充当集中的集中框架,该框架集成了AI代理的数据处理,内存管理和决策模块,以确保代理商的响应和动作保持连贯性且在上下文上相关。 这种垂直集成使AI代理可以自主运行,MCP协调其内部过程以有效地实现统一的目标。 相反,AI代理协议有助于H