DDN AI400X 存储设备是 DDN A³I 解决方案的一部分,它提供了一个完全集成的共享数据平台,可直接向 Supermicro X12 服务器提供超过 50 GB/s 和每秒 300 万次输入/输出操作 (IOPS)。6 DDN AI400X 设备集成了 DDN A³I 共享并行架构,可提供冗余和自动故障转移功能,并为基于 Habana Gaudi 处理器的集群提供数据弹性。存储设备在 Supermicro X12 服务器上运行的存储和容器化应用程序之间提供多条并行路径,从而实现低延迟。DDN AI400X 设备还提供冗余和自动故障转移功能,以实现高可用性,并支持在 AI 集群中的所有 Supermicro X12 服务器上并发和连续执行 DL 训练。
NVIDIA AI Enterprise 在 VMware 上进行了优化、认证和支持,通过在 Supermicro 的各种 NVIDIA 认证系统上虚拟化 AI 工作负载实现接近裸机的性能。这些系统支持基于 PCI-E Gen 4 的 NVIDIA A30、A40 和 A100,以及 NVIDIA HGX-A100™ 8 和 4-GPU 系统,使客户能够通过创新的服务器设计优化性能、能源使用和数据中心冷却。可容纳 NVIDIA GPU 的 Supermicro 服务器尺寸从 1U 到 4U 不等,支持 1 到 10 个 GPU,并可配置 NVIDIA 网络加速器、ConnectX 和 Blue-Field® 数据处理单元,实现快速、低延迟的网络连接。
结合Supermicro的AI基础架构高度灵活的构建块体系结构,这些NVIDIA加速计算平台为AI和高性能计算工作负载提供了出色的性能。具有先进的GPU-GPU互连性,高GPU计算每个系统和机架,高可扩展性以及优化的NVIDIA AI Enterprise软件库,框架和工具集,这些系统旨在加速深度学习模型培训,大型尺度模拟,大型模拟和数据分析,所有在可扩展的,能量,能够效率高的系统中,可以进行特定于特定于特定的工作。SuperMicro为NVIDIA HGX和NVIDIA PCIE(外围组件互连Express)提供系统选项,从而使组织可以根据现有基础架构轻松采用和扩展。
人工智能正迅速成为各行各业的主流技术。虽然目前的观点是,在人工智能训练方面表现出色的服务器必须位于数据中心的受控环境中,但这款配备强大 CPU 和 GPU 的全新创新型 Supermicro 液冷人工智能开发系统可让更多数据科学家、工程师和业务分析师做出更好的决策,同时降低运营成本。Supermicro 通过提供配备最先进 CPU 和 GPU 的人工智能服务器,以及可降低功耗和分贝水平的液冷创新技术,推动人工智能的发展。此外,通过额外购买可选的 NVIDIA AI Enterprise 软件和服务,SYS-751GE-TRT-NV1 是针对人工智能开发专业人士的完整解决方案。通过购买可选的 NVIDIA AI Enterprise 软件订阅,这个独特的系统即可随时投入使用,让开发人员和用户能够以比以往更短的时间提高工作效率。
技术中性探索生成人工智能 ↔ 作者:Samuel Tan l samueltan@kenanga.com.my 在我们最近的知识共享会议“探索生成人工智能 (AI)”中,专家演讲者 Benedict Khoo 先生 (Supermicro)、Ko Yun Hung 先生 (SNS Network) 和 Lim Kah Chun 先生 (AIMS Data Centre) 深入探讨了这项最新的尖端技术及其为本地参与者带来的机遇。Supermicro 展示了其通过 GPU 服务器系统为推动 AI/HPC 进步所做的重大贡献。该公司对模块化和内部制造的战略重点确保了灵活性、成本效益和高质量的服务器解决方案,使其成为首选的服务器。SNS Network 强调了 AI 在马来西亚各个领域的变革潜力。该公司充当连接服务器制造商和买家的桥梁,推动 AI 在马来西亚的采用和集成。AIMS Data Centre 提供了有关数据中心在支持 AI 和 GPU 服务器方面的关键作用的宝贵见解。 AIMS 的 Tier 3 认证确保了高可用性和可靠性,具有冗余系统和容错组件。该公司还介绍了其空气冷却配置和创新的液体冷却解决方案,这使其成为马来西亚首选的数据中心提供商。
Super Micro Computer,Inc。(SMCI)是高性能,高效率服务器技术和创新的全球领导者,宣布其在2032年减少温室气体(GHG)排放的近期目标已由科学基于科学的Targets Initiative(SBTI)批准。通过设定1.5°C的目标,Supermicro将其温室气体排放量与最新的气候科学保持一致,并通过其CDP披露(以前是碳披露项目),每年报告其进度和状态。
几乎每个行业的组织都认识到数据具有巨大的价值。如今,从数据中提取可操作信息的技术不断成熟。无论是药物研发、地球物理建模还是开发自动驾驶汽车,那些学会利用这些技术的人都会获得竞争优势。随着将数据转化为可操作见解的价值日益明显,收集和处理数据的动力也随之增强。数据越精细、越全面,就越能识别和利用趋势。如此丰富的数据增强了人工智能 (AI) 模型的训练并提高了业务效率。这就是为什么公司纷纷转向采用 AMD EPYC™ 处理器的 Supermicro® 服务器,以挖掘各种数据密集型应用程序和工作负载的变革潜力:
在生成式人工智能时代,数据中心是新的计算单元,而不是单个服务器。机架中多个节点上互连的 GPU、CPU、内存、存储和其他资源协调着大规模人工智能工作流程。这种基础设施需要高速、低延迟的网络结构、精心设计的冷却技术和电力输送,以维持每个数据中心环境的最佳性能和效率。Supermicro 的 SuperCluster 解决方案提供了构建、定制和部署快速发展的生成式人工智能和大型语言模型 (LLM) 的基础构建模块。交钥匙数据中心解决方案加快了任务关键型企业用例的交付时间,并消除了构建大型计算集群的复杂性。这种计算基础设施以前只能通过密集的设计调整和耗时的超级计算资源优化来实现。
结论云原生技术的基础是 Kubernetes,部署、维护和升级可能很复杂。将 GPU 添加到组合中可能会带来另一层复杂性。但是,借助 Supermicro AS-1114S-WTRT WIO 系统、NVIDIA GPU 设备和 NVIDIA DeepOps 工具,组织可以更直接地构建私有云原生平台以及 MLOps 应用程序。从设计角度来看,AS-1114S-WTRT 作为灵活的云节点,可以满足硬件基础设施的计算、存储和虚拟化要求;从运营角度来看,DeepOps 使本地云原生平台更易于部署、维护和扩展。本文还展示了 Kubernetes POD 如何加速深度学习过程,从而缩短上市时间。参考 https://docs.nvidia.com/datacenter/cloud-native/index.html https://www.kubeflow.org/docs/started/kubeflow-overview/ AMD、AMD 箭头徽标、EPYC 及其组合是 Advanced Micro Devices, Inc. 的商标。