详细内容或原文请订阅后点击阅览
使用其多模式的视频理解模型推理
在Byedance上,我们与Amazon Web Services(AWS)合作部署了多模式大语言模型(LLMS),以在世界各地的多个AWS地区使用AWS推理AWS来理解视频理解。通过使用复杂的ML算法,该平台每天有效地扫描数十亿个视频。在这篇文章中,我们讨论了多模式LLM的使用用于视频理解,解决方案体系结构以及性能优化的技术。
来源:亚马逊云科技 _机器学习这是由团队在bytedance上撰写的来宾帖子。
这是由团队在bytedance上撰写的来宾帖子。bytedance是一家技术公司,该公司运营着一系列内容平台,以告知,教育,娱乐和启发跨语言,文化和地理位置的人们。用户由于他们提供的丰富,直观和安全的体验而信任和享受我们的内容平台。我们的机器学习(ML)后端引擎使这些体验成为可能,ML模型构建了用于视频理解,搜索,建议,广告和新颖的视觉效果的模型。
bytedance 机器学习支持其“激发创造力和丰富生活”的使命,我们使人们直接而有趣地与人们互动,创造和消费内容。人们还可以使用一套超过十几种产品和服务来发现和交易,例如Capcut,E-Shop,Lark,Pico和Mobile Legends:Bang Bang。
在Byedance上,我们与Amazon Web Services(AWS)合作部署了多模式大语言模型(LLMS),以在世界各地的多个AWS地区使用AWS推理AWS来理解视频理解。通过使用复杂的ML算法,该平台每天有效地扫描数十亿个视频。我们使用此过程来识别和标记违反社区准则的内容,从而为所有用户提供更好的体验。通过使用Amazon EC2 INF2实例来了解这些视频理解工作负载,我们可以将推理成本降低一半。
Amazon Web Services 大语言模型 aws pebleentia2 AWS区域 Amazon EC2 INF2实例在这篇文章中,我们讨论了多模式LLM的用法用于视频理解,解决方案体系结构和性能优化的技术。
用多模式LLMS克服视频理解障碍
解决方案概述
自第一代推论芯片 aws Neuron neuroncores 亚马逊弹性计算云以下图显示了我们如何使用神经元在Amazon EC2 INF2实例上部署LLM容器。