使用模型上下文协议扩展了由亚马逊萨吉人AI驱动的大型语言模型

人类提出的MCP提供了将FMS连接到数据源的标准化方法,现​​在您可以使用SageMaker AI使用此功能。在这篇文章中,我们展示了一个结合Sagemaker AI和MCP的力量来构建应用程序的示例,该应用程序通过专业角色和自动化工作流提供了新的借贷承销观点。

来源:亚马逊云科技 _机器学习
实施代理和基于代理的系统的组织通常会面临挑战,例如实施多个工具,函数调用以及策划工具调用的工作流程。代理使用功能调用来调用外部工具(例如API或数据库)来执行特定的操作或检索其内部不具有的信息。这些工具被整合为代理本身内部的API调用,从而导致跨企业的扩展和工具重复使用方面的挑战。希望在大规模部署代理商的客户需要一种一致的方法来集成这些工具,无论是内部或外部的,无论其使用的编排框架或工具的功能如何。Model上下文协议(MCP)旨在标准化这些渠道,代理,工具和客户数据如何由代理如何使用这些渠道,如下图所示。对于客户而言,与处理分散的系统或代理相比,这直接转化为更加无缝,一致和高效的经验。通过使工具集成更简单和标准化,客户构建代理现在可以专注于使用哪些工具以及如何使用它们,而不是花一个构建自定义集成代码的周期。对于MCP实施,您将深入了解MCP架构。对于MCP实施,您需要一个可扩展的基础架构来托管这些服务器和一个基础架构来托管大型语言模型(LLM),该模型将使用MCP服务器实施的工具执行操作。 Amazon Sagemaker AI提供了托管LLM的能力,而不必担心扩展或管理未分化的繁重劳动。您可以将模型或LLM部署到SageMaker AI托管服务,并获得可用于实时推理的端点。此外,您可以在AWS选择的计算环境中托管MCP服务器,包括Amazon Elastic Compute Cloud(Amazon EC2),Amazon Elaster Canser Service(Amazon ECS),Amazon Elastic Kubernetes服务(Amazon EKS)和AWS LA