软件功能 ................................................................................................ 3 安装向导 ................................................................................................ 3 窗口和对话框管理 ...................................................................................... 4 网格线 ................................................................................................ 4 虚拟桌面 ................................................................................................ 6 配置文件 ................................................................................................ 7 应用程序特定配置 ...................................................................................... 7 热键 ...................................................................................................... 8 扩展任务栏 ............................................................................................. 8
现代企业正在努力释放其企业数据推动业务价值的潜力。Cloudera AI,Nvidia的高级GPU处理和微服务的收敛性,以及真正的混合模型,在确保数据准备,治理和推论的同时,提供了扩展数据,AI和分析的无缝路径。通过集中数据,AI和分析工作负载在Cloudera启用SDX的数据湖服务中,并通过NVIDIA NIMS(NVIDIA推断微服务)和GPU驱动的体系结构加速性能,组织可以提供更快的见解,优化成本,优化成本,并在集成的数据安全范围内保持强大的合规性。本文探讨了这些技术如何为统一的,可扩展的AI驱动企业框架提供支持,以支持组织希望实现的数据驱动结果。
6开始使用Fabric Manager 13 6.1基本组件。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。13 6.1.1面料管理器服务。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。13 6.1.2软件开发套件。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。13 6.2 NVSWWITCH和NVLINK初始化。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。13 6.3支持的平台。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。15 6.3.1硬件体系结构。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。15 6.3.2 NVIDIA服务器体系结构。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。15 6.3.3 OS环境。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。15 6.4支持的部署模型。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。15 6.5其他NVIDIA软件包。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。16 6.6安装。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。基于NVSWWITCH的DGX服务器系统上的16 6.6.1。。。。。。。。。。。。。。。。。。。。。。。。。。。。16 6.6.2在基于NVSWWITCH的NVIDIA HGX服务器系统上。。。。。。。。。。。。。。。。。。。。。16 6.7管理面料管理器服务。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。17 6.7.1启动面料管理器。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。17 6.7.2停止面料管理器。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。17 6.7.3检查面料管理器状态。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。18 6.7.4启用Fabric Manager服务以自动启动。。。。。。。。。。。。。。。。。18 6.7.5禁用Fabric Manager服务自动启动在启动时。。。。。。。。。。。。。。。。。。18 6.7.6检查面料管理器系统日志消息。。。。。。。。。。。。。。。。。。。。。。。。18 6.8 Fabric Manager启动选项。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。18 6.9 Fabric Manager服务文件。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。基于Linux的系统上的19 6.9.1。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。19 6.10运行织物管理器作为非根。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。20 6.11 Fabric Manager配置选项。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。21 6.11.1记录相关的配置项目。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。21 6.11.1.1设置日志文件位置和名称。。。。。。。。。。。。。。。。。。。。。。。。。21 6.11.1.2设置所需的日志级别。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。21 6.11.1.3设置日志文件附加行为。。。。。。。。。。。。。。。。。。。。。。。。。。。。。22 6.11.1.4设置日志文件大小。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。22 6.11.1.5将日志重定向到Syslog。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。22 6.11.1.6旋转设置。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。22 6.11.2操作模式相关的配置项目。。。。。。。。。。。。。。。。。。。。。。。。。。。。。23
nvidia®Bluefield®DPU软件是由Bluefield BSP(董事会支持包)构建的,该软件包括操作系统和DOCA框架。Bluefield BSP包括加载和设置软件组件的其他必需品。BSP将官方的Bluefield操作系统(Ubuntu Reference Linux分布)加载到DPU。DOCA是用于开发应用程序和基础架构服务的软件框架和SDK。DOCA包括运行时库; ARM的DOCA运行时堆栈支持用于存储,网络和安全性的各种加速度。因此,客户可以在Bluefield软件环境中无缝运行任何基于Linux的应用程序。
1. 简介 TOU 规范您对某些 NVIDIA 网站(以下简称“网站”)的使用和访问,以及对网站上的服务和产品的使用(网站及其服务和产品统称为“技术”),除非该技术附有单独的协议。通过注册使用该技术或访问该技术,您确认您已阅读、理解并同意受 TOU 约束。只有达到使用该技术所在国家/地区法定成年年龄的成年人才能接受 TOU。如果您代表公司或其他法律实体签署 TOU,则表示您拥有约束该实体遵守 TOU 的法定权力,在这种情况下,“您”是指您所代表的实体。如果您未达到接受 TOU 所需的年龄或权力,或者您不接受 TOU 的所有条款和条件,请勿访问或使用该技术。从网站,您可以访问和使用某些技术,包括:
NVIDIA® Jetson AGX Orin TM 系列提供服务器级性能,可为自主系统提供高达 275 TOPS 的 AI 性能。Jetson AGX Orin 系列包括 Jetson AGX Orin 64GB 和 Jetson AGX Orin 32GB 模块。这些节能的系统级模块 (SOM) 与 Jetson AGX Xavier TM 外形尺寸和引脚兼容,可提供高达 8 倍的 AI 性能。Jetson AGX Orin 模块采用 NVIDIA Orin SoC,配备 NVIDIA Ampere 架构 GPU、Arm® Cortex®-A78AE CPU、下一代深度学习和视觉加速器以及视频编码器和视频解码器。高速 IO、204 GB/s 内存带宽和 32GB 或 64GB DRAM 使这些模块能够为多个并发 AI 应用程序管道提供支持。借助 SOM 设计,NVIDIA 完成了围绕 SoC 的大量设计工作,不仅提供计算和 I/O,还提供电源和内存设计。有关更多详细信息,请参阅我们的 Jetson AGX Orin 系列数据表 1 。
左图:应用程序加速的几何平均值与P100 |基准应用| Amber [PME-Cellulose_NVE],Chroma [HMC},Gromacs [Adh Dodec],MILC [Apex Medive],NAMD [STMV_NVE_CUDA],PYTORCH(BERT大调谐器],量子[Ausurf112-Jr];带有4倍P100,V100或A100 GPU的双插入CPUH100值为2022预计性能的值| |从2021年11月开始的Top500数据| Green500数据从2021年11月开始,MLPERF名称和徽标是美国和其他国家的MLCommons协会的商标。保留所有权利。未经授权的使用严格禁止。有关更多信息,请参见www.mlcommons.org。
AI由于成本,集成复杂性和部署时间而无法实现。以前,组织依靠最新数据依靠llms来验证其LLM,这是一个昂贵且耗时的过程。NETAPP AIPOD与Lenovo一起使用NVIDIA OVX结合了NVIDIA认证的OVX Lenovo Thinksystem SR675 V3服务器,具有经过验证的NetApp存储,以创建专门为AI工作负载设计的融合基础架构。使用此解决方案,客户将能够为聊天机器人,知识管理和对象识别等用例进行AI抹布和推理操作。
图 1-1。NVIDIA AI Enterprise 软件套件......................................................................6 图 1-2。数据科学工作流程示例 ......................................................................................6 图 3-1。NVIDIA AI Enterprise 试用 - Ubuntu 桌面版 ........................................... 10 图 4-1。BERT 问题/答案 ............................................................................................. 11 图 4-2。BERT 模型示例段落 ...................................................................................... 12 图 4-3。BERT 演示提供的问题 ...................................................................................... 12 图 4-4。BERT 演示自定义输入 ...................................................................................... 13 图 4-5。出租车费演示概述 ............................................................................................. 13 图 4-6。出租车费用数据示例 ................................................................................................ 14 图 4-7。训练和实际时间 ................................................................................................ 14 图 4-8。出租车费用预测与实际数据的比较 ........................................................................ 15