使用Amazon Q开发人员和MCP

在这篇文章中,我们探讨了如何使用Amazon Q开发人员和模型上下文协议(MCP)服务器来简化DLC工作流程以自动化DLC容器的创建,执行和自定义。

来源:亚马逊云科技 _机器学习
数据科学团队使用人工智能和机器学习(AI/ML)面临着越来越多的挑战,因为模型变得更加复杂。 While Amazon Deep Learning Containers (DLCs) offer robust baseline environments out-of-the-box, customizing them for specific projects often requires significant time and expertise.In this post, we explore how to use Amazon Q Developer and Model Context Protocol (MCP) servers to streamline DLC workflows to automate creation, execution, and customization of DLC containers.AWS DLCsAWS DLCs provide generative AI practitioners with optimized跨亚马逊弹性计算云(Amazon EC2),Amazon Elastic Kubernetes Service(Amazon EKS)和Amazon Elastic Container Service(Amazon ECS),将在其管道和工作流程中训练和部署大型语言模型(LLM)和工作流程中的Docker环境。 AWS DLC是针对自我管理的机器学习(ML)客户的目标,他们更喜欢自行构建和维护其AI/ML环境,想要对基础架构进行实例级别的控制,并管理自己的培训和推理工作量。 DLC无需提供任何额外费用,预先包含CUDA库,流行的ML框架和弹性织物适配器(EFA)插件,用于分布式培训和对AWS的推断。他们会自动配置稳定的连接环境,从而消除了客户解决常见问题(例如版本不兼容)的需求。 DLC可作为Docker图像可用,用于训练和推断Pytorch和Amazon弹性容器注册表上的Tensorflow(Amazon ECR)。下图说明了AWS.DLC上的ML软件堆栈持续使用最新版本的框架和驱动程序,该框架和驱动程序已测试,并提供了兼容性和安全性,并提供了额外的成本。通过遵循我们的食谱指南,它们也可以直接自定义。使用AWS DLC作为生成AI环境的构建块,减轻了运营和基础设施团队的负担,Lo