详细内容或原文请订阅后点击阅览
用火炬捕获和部署pytorch型号
在拥抱面模型上展示了Pytorch令人兴奋的新出口功能,该邮政捕获和部署了用火炬部署Pytorch模型。Export首先出现在数据科学上。
来源:走向数据科学我们想到的是模型项目,我们的大多数注意力都倾向于关注大问题,例如:创建和策划数据集,设计最佳的ML架构,为培训提供适当的大型GPU群集,并建立满足目标服务质量服务质量(QOS)要求的推理解决方案。但是,通常是小细节成为我们的致命弱点,导致意外的虫子和重大的生产延迟。
achilles的脚跟经常被忽略的一个细节是将经过训练的模型移交给推理环境。尽管这种交接似乎很容易,但它很容易成为挫败感的源泉。培训和推理环境很少相同,从运行时库到硬件目标有所不同。要浏览这些差异,AI/ML模型开发人员必须确保:
- ,模型定义及其受过训练的权重将其正确加载到推理环境中,而模型的行为不会改变。
本文将重点介绍第一个挑战 - 在推理环境中对模型定义和状态的可靠恢复。我们将调查一些旧选择及其缺点。然后,我们将介绍新的Torch.Export API,并在使用HuggingFace的Transfceers Library(版本4.54.0)构建的玩具模型上演示它。在我们的实验中,我们将使用Amazon EC2 G5.xlarge实例(包含NVIDIA A10G GPU和4个VCPU),运行Pytorch(2.7)深度学习AMI(DLAMI)。
torch.export 拥抱面的 变形金刚 Amazon EC2 G5.xlarge Pytorch(2.7)深度学习AMI(DLAMI) 火炬发电机 torch.compile 最近的帖子 上一篇文章