AWS上的Nvidia DGX Cloud和Amazon Bedrock自定义模型导入

这篇文章与Nvidia的Andrew Liu,Chelsea Isaac,Zoey Zhang和Charlie Huang共同撰写。 Amazon Web服务(AWS)上的DGX Cloud代表了民主化获得高性能AI基础架构的重大飞跃。通过将NVIDIA GPU专业知识与AWS可扩展的云服务相结合,组织可以加速训练时间,降低操作复杂性并解锁[…]

来源:亚马逊云科技 _机器学习
这篇文章与Andrew Liu,Chelsea Isaac,Zoey Zhang和Charlie Huang共同撰写,来自NVIDIA.DGX Cloud在Amazon Web Services上(AWS)代表了在民主化对高强度AI基础架构的访问方面的重大飞跃。通过将NVIDIA GPU专业知识与AWS可扩展的云服务相结合,组织可以加速培训时间,减少运营复杂性并释放新的商机。该平台的性能,安全性和灵活性将其定位为那些寻求留在AI Innovation最前沿的人的基础元素。在这篇文章中,我们在AWS上使用NVIDIA DGX Cloud探索了强大的端到端开发工作流程,Run:AI:AI和Amazon Bedrock自定义模型导入。 We demonstrate how to fine-tune the open source Llama 3.1-70b model using NVIDIA DGX Cloud’s high performance multi-GPU compute orchestrated with Run:ai, and we deploy the fine-tuned model using Custom Model Import in Amazon Bedrock for scalable serverless inference.NVIDIA DGX Cloud on AWSOrganizations aim for rapid deployment of generative AI and agentic AI solutions to gain business value quickly. AWS和NVIDIA一直共同提供AI基础架构,软件和服务。两家公司在AWS上共同设计了NVIDIA DGX Cloud:一个完全管理的高性能AI培训平台,具有灵活,短期访问大型GPU群集。 AWS上的DGX Cloud已通过更快的时间进行了优化,可以在完整堆栈平台的每一层训练以从第一天开始培训生产力。借助DGX Cloud在AWS上,组织可以使用最新的NVIDIA架构,包括由Nvidia Grace Blackwell GB200 SuperChip加速加速的Amazon EC2 P6E-GB200 Ultraserver(即将在AWS上登上DGX Cloud)。 AWS上的DGX Cloud还包括访问NVIDIA AI和Cloud Experts以及24/7的支持,以帮助企业提供最大的投资回报率(ROI),并在AWS Marketplace中提供。AmazonBedrock Custom Model Model Model Model Model Model Model Mandazon Bedrock是完全Mana