加速AI创新:使用Amazon Bedrock的企业工作负载的Scale MCP服务器

在这篇文章中,我们使用亚马逊基地提供了一个集中式的模型上下文协议(MCP)服务器实现,该服务器为企业AI工作负载提供了共享的工具和资源访问权限。该解决方案使组织能够通过MCP对资源和工具进行标准化,同时通过集中式方法来维持安全和治理,从而加速AI创新。

来源:亚马逊云科技 _机器学习
生成的AI一直以新的工具,产品和模型经常发布。根据Gartner的说法,Agesic AI是2025年最佳技术趋势之一,组织正在对如何在其企业环境中使用代理进行原型。代理依靠工具,每个工具可能都有自己的发送和接收信息的机制。拟人化的模型上下文协议(MCP)是试图解决此挑战的开源协议。它提供了一种协议和通信标准,该协议和通信标准与不同的工具交叉兼容,并且可以由代理应用程序的大语言模型(LLM)使用,以使用标准机制连接到企业API或外部工具。但是,像金融服务这样的大型企业组织往往具有复杂的数据治理和操作模型,这使得实施与MCP合作的代理商的挑战是孤立的方法,即单个团队在其中构建自己的工具,从而导致重复的努力并浪费资源。这种方法减慢了创新,并在集成和企业设计中造成了不一致之处。此外,在整个团队中管理多个断开的MCP工具,因此很难有效地扩展AI计划。这些效率低下的企业阻碍了企业充分利用生成AI来完成诸如贸易后处理,客户服务自动化和监管合规性等任务。在本文中,我们使用亚马逊基地的集中式MCP服务器实现了集中的MCP服务器实现,该实现通过为工具和资源提供共享访问来提供一种创新方法。通过这种方法,团队可以专注于构建AI功能,而不是花费时间开发或维护工具。通过通过MCP标准化资源和工具的访问,组织可以加速AI代理的开发,因此团队可以更快地达到生产。此外,集中式方法提供一致性和标准化