SYS-E403-14B Cyber Flyaway 套件基于任务关键型灵活构建模块。Supermicro 的 SYS-E403-14B 移动边缘 AI/ML/HPC 服务器是业界性能最高的边缘 AI 服务器。35 磅的重量具有极具吸引力的性价比,可轻松作为随身行李放入任何飞机行李架。这为单个作战人员提供了易于操作的轮式技术。移动边缘性能扩展到移动集群,提供千万亿次浮点运算的 GPU 和千万亿字节的 AI 存储,以及 400GbE/s 的系统间连接。
IronYun 于 2021 年和 2022 年被 IDC MarketScape 评为视频分析和视频分析即服务领域的“主要参与者”,是 Vaidio AI Vision 平台的骄傲创造者。Vaidio 于 2020 年、2021 年和 2023 年荣获 SIA 商业监控、视频分析和损失预防新产品展示奖,并凭借 Vaidio 8.0 版本荣获 2024 年最佳新产品奖。Vaidio 为任何摄像头添加了先进的 Vision AI,并与 30 个市场领先的 VMS 集成。Vaidio 为全球城市、学校、零售、安保、运营、制造、交通、运输和物流应用提供实时监控和警报、取证视频搜索和丰富的商业智能。
在当今的数字景观中,数据是可保护网络威胁,违规和损失必不可少的宝贵资产。过时的基础架构和传统系统所面临的挑战可能导致效率低下并缓慢恢复。此外,缺乏创新平台会增加损害性能的风险和复杂性。随着网络威胁的增长越来越复杂,组织需要有效的解决方案,以促进易于数据访问,同时为关键工作量提供强大的保护。没有适当的数据保护措施,企业面临着严重的漏洞,可能导致财务损失和对其声誉的持久损害。
公司预计,截至 2024 年 12 月 31 日的 2025 财年第二季度净销售额将在 55 亿美元至 61 亿美元之间,GAAP 每股摊薄净利润将在 0.48 美元至 0.58 美元之间,非 GAAP 每股摊薄净利润将在 0.56 美元至 0.65 美元之间。公司对 GAAP 和非 GAAP 每股摊薄净利润的预测分别假设税率约为 14.0% 和 15.0%,GAAP 完全摊薄股数为 6.40 亿股,非 GAAP 完全摊薄股数为 6.48 亿股。2025 财年第二季度 GAAP 每股摊薄净利润的预期包括约 5400 万美元的预期股票薪酬费用和其他费用,扣除相关税收影响 1400 万美元,这些费用不包括在非 GAAP 每股摊薄净利润中。
复杂模型。其模块化设计从八个SYS-822GA-NGR3Intel®Gaudi®AI服务器解决方案的单个群集段开始,可以扩展到512个节点(4,096 GPU,64个群集段),同时又适应了增长AI工作量。其灵活性和能源效率使组织能够在AI创新的最前沿管理运营成本。由Intel®Gaudi®3AI加速器和Intel®Xeon®6带有性能核的处理器,SuperMicro正在构建专门构建的群集,可用于运行各种多租户数据中心的所有尺寸的深度学习工作负载。凭借Supermicro在大规模建立数据中心方面已经有经验的专业知识,因此创建解决方案作为生成AI计算能力,价格,能源效率和市场可用性的可行替代方案令人兴奋。
IP65+是一种革命性的解决方案,该解决方案是根据智能城市和智能运输系统不断发展的需求量身定制的。随着英特尔优化的处理器与SuperMicro平台的集成,客户可以利用AI网络和工作负载编排加速来巩固其操作。此解决方案可以在边缘的多5G网络和AI的快速,可扩展,负担得起且安全的部署。它提供了巨大的可持续性福利和新的创收机会。IP65+是一个完整的电信系统,具有SuperMicro的户外IP65级服务器和5G网络软件;通过增加无线电设备,IP65+可以作为一个自给自足的5G专用网络部署,该网络是防水和防尘的,也可以作为操作员公共网络的扩展。
如图2所示,Celona Edge OS感应了数据流并将其分配给微板片,在这种情况下,视频,销售点系统,语音,物联网和最佳努力频道。这些微型映射到企业运输网络中的虚拟LAN,并可以根据身份验证和网络地址控制(NAC)策略灵活地达到其用户组目标。通过为客户提供对微型策略的配置更新的完整控制,网络管理员可以在需要时更改设备组和应用程序的服务级别。
随着中央处理单元(CPU)和图形处理单元(GPU)的热设计功率(TDP)的不断增加,空气冷却无法有效冷却组件。液体冷却是冷却服务器的更有效方法,并减少了电力和用水量。直接液体冷却可显着减少冷却IT设备所需的能量。由于液体提供的热传输比空气更好得多,因此我们客户冷却IT设备的架子柜的成本可能是其用途寿命上气冷系统的十分之一。Supermicro的液冷架可针对高冷却液温度进行了优化,可提供行业领先的效率。SuperMicro提供了总液体冷却溶液。
Applied Digital 认为,最适合其用户的系统是 Supermicro SYS- 821GE-TNHR,它配备双第四代英特尔® 至强® 铂金处理器 8462Y+。这些服务器使用 NVIDIA HGX H100 GPU,每个 GPU 配备 80GB 内存。NVIDIA H100 为 HPC 提供 67 万亿次浮点运算的 FP64 Tensor Core 计算,而融合 AI 的 HPC 应用程序可以利用 H100 的 TF32 精度实现单精度矩阵乘法运算的 1 千万亿次浮点运算吞吐量。该系统在计算节点内托管八个 H100 Tensor Core GPU 和 900GB/s NVSwitch,用于 GPU 到 GPU 的通信。Applied Digital 选择 2TB 的系统 RAM 来在转移到 GPU 内存之前暂存工作负载。对于网络,Applied Digital 使用 100GbE 进行带内管理和对象存储,并使用 NDR 结构进行 GPU Direct 和融合闪存文件系统流量。利用 NVIDIA DGX 参考架构,Applied Digital 可扩展到在单个并行计算集群中工作的数千个 H100 GPU。
要实施人工智能 (AI) 并获得其好处,您必须考虑解决方案的所有方面。找到能够提供端到端支持的合作伙伴至关重要,包括规划、数据准备、硬件选择、AI 模型设计、概念验证测试、参考架构和端到端支持。在此摘要中,我们根据公开的 MLPerf ® 基准测试结果,重点介绍了戴尔™ AI 产品组合中的服务器相对于 Supermicro 的性能和空间优势。MLPerf ® 在多个 AI 模型上测试训练和推理的性能。本摘要中的数据来自 2023 年 11 月在 MLCommons ® 网站上发布的 MLPerf ® v3.1 推理数据中心结果。1 我们还比较了有关每个供应商为支持 AI 部署而提供的产品和解决方案范围的公开信息。