获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
Deploy Mistral AI’s Voxtral on Amazon SageMaker AI
在本文中,我们演示了使用 vLLM 和自带容器 (BYOC) 方法在 Amazon SageMaker AI 终端节点上托管 Voxtral 模型。 vLLM 是一个用于服务大型语言模型 (LLM) 的高性能库,具有分页注意力以改进内存管理和张量并行性,以便跨多个 GPU 分发模型。