GTC22问题答疑汇总

Q:黄仁勋在主题演讲中介绍H100拥有4.9TB/s的带宽,但是H100 4.9TB/s的带宽是如何计算得来的呢?由于内存带宽为3TB/s,NVLink带宽为900GB/s,那么外部总带宽意味着什么?

A:4.9 TB/s (H100 对外的带宽总和) =

3TB/s(HBM3 GPU 内存) +

900GB/s (NVLink GPU 到 GPU) +

900GB/s (NVLink C2C GPU 到 CPU) +

128GB/s (PCIe Gen5 GPU 到 CPU).

1.jpg2.jpg

Q:如何理解NVLink打开semi-custom chips and system 的世界?为什么是NVLink而不是其他?

A: GPU应用程序最大的瓶颈在于互联,CPU <-> GPU, GPU <-> system memory 解决这个问题不仅会提升现有程序的效率,同时可以将更多的业务应用迁移到GPU上运行。

Q: NVLink Switch 是否支持OEM的HGX H100机型?和DGX H100 相比是否有功能或性能方面的不同?

A:支持。如果配置实现相同的话,理论上性能也是一致的。

Q: H100 GPU和服务器内部的NVSwitch之间的电缆是如何连接的?每条链路的带宽是多少?一条绿线意味着450GB(18*25)?

A:在服务器内部,GPU、NVLink 和 NVSwitch 在主板上通过Serdes相连,每个H100有18条NVLink链路,每条链路单向带宽25Gb/s,双向带宽50Gb/s,18条link 总带宽900Gb/s。

Q: NVSwitch是如何与NVLink交换机连接的?每条绿线有多少带宽?18个以下的NVLink交换机的物理形式是什么?

A:服务器外部的NVLink Switch,称为L2 NVSwitch,它是1U Rack形态,内含2个第三代NVSwitch模块,共128个NVLink端口,对外提供32个OSFP cages,即每个OSFP对内连接4个NVLink端口(共计100GB/s单向带宽)。服务器内部的4个NVSwitch模块共计8*18=144条NVLink链路对内下联到8块GPU,对外以2:1比例,也就是72条NVLink链路上联。这72条NVLink链路在服务器内部分别由4个NVSwitch模块以4 OSFP/4 OSFP/5 OSFP/5 OSFP的方式与18台L2 NVSwitches互联,所以18台L2 NVSwitches也被以4/4/5/5的方式分成了4组,每组分别与服务器内部对应顺序的NVSwitch模块提供的NVLink端口通过OSFP进行连接。

Q: NVLink交换机是如何与NDR IB Switch连接的?我知道32台DGX H100服务器使用NVLink Switch进行互连,那么1K DGX 100服务器应该使用NDR IB Switch。但我不清楚NVLink交换机和NDR Switch之间的连接情况,谢谢。

A: NVSwitch 和 IB Switch是两个独立的单元,在32个DGX H100服务器 内(既一个Scalable Unit内),GPU直接通信会基于NCCL优选NVLink, Scalable Unit之间则通过带宽最高的IB网络进行通信互联。

Q:NVIDIA EOS系统中,如何理解bisection 带宽230TB/s?这个指标的意义代表什么?

A:在All-To-All场景中,每一个GPU需要向其他的GPU同时发送数据。对于这个性能的衡量,使用的指标是bisection。它计算的是网络中一半的节点向另一半节点发送数据时网络的带宽。

这种情况下是一个网络能够做到的最大的无阻塞的流量,因为所有的通信都是1:1,所以不会产生拥塞,导致触发流控,从而导致带宽降低。其他任何情况都不会超过这个值。

1个 HGX H100 节点内部,通过NVLink NVSwitch 互联

  • 8 / 2 * 900GB/s = 3600 GB/s

1 SU 内, 32 个HGX H100节点,NVLink网络收敛比2:1

  • 328 / 2 / 2 900GB/s = 57,600 GB/s

4 SU, SU之间通过8* NDR 400Gb/s 网络互联

(4328)/8/2*400Gb/s = 25,600 GB/s (single direction)

18 SU之间同理4SU直接换算方式:

(18328)/8/2400Gb/s = 115.2 TB/s 2 = 230TB/s (bi-direction)

3.jpg

Q: 不同的硬件架构,X86+GPU,Grace+Hopper,NVLink scale out,对于人工智能训练有什么区别。

A: Grace 是基于ARM架构的CPU,支持标准的ARM指令集。

对于AI training的业务场景,客户会直接基于相关的上层AI框架(TensorFlow,pytorch)进行训练,底层调取相关的基础API/SDK。

基于ARM NVIDIA会逐步,完全支持相关的软件栈,如GPU Driver, CUDA,cuDNN,TRT等,所以对于用户来讲 x86/Grace + GPU,如果底层 GPU API/SDK 和 上层AI框架,TensorFlow,Pytorch都支持,对于用户业务层则无变化。

通信层,AI框架会调取NCCL来进行分布式训练,NCCL基于IB或NVLink实现,会选取最优链路,对用户和框架层也是透明的。

Q:FP8的指数用了多少位?精度用了多少位?是否有更多细节可以分享?如何在训练和推理中采用FP8?

A:FP8有两种类型:E5M2和E4M3。E5M2为5位指数2位尾数,E4M3为4位指数3位尾数。在目前的训练中,E4M3需要用于前向传递/推理(2位尾数对某些网络来说不够),E5M2需要用于某些网络的梯度张量(E4动态范围不够宽)。

Q:SDK、工具和框架如何支持FP8?

A: FP8是一种数据类型,在未来的版本中,cuDNN、cublas将支持FP8。它还将通过NeMo和Apex等NLP工具包提供。

Q: FP8适合什么样的应用场景?

A: 许多流行的架构,如CNN、RNN和Transformers,都可以使用FP8训练程序实现类似的精度。

Q: 与INT8相比,FP8的优势是什么?

A: FP8有两种常见的优势:

a) 对于一些模型的推理,INT8与QAT量化方法不能保持准确性。

b) 训练加速。

Q: Transformer Engine是否一定要使用FP8和FP16?可以使用FP16或FP32吗?

A: 是的。它计算张量的历史范围,并应用每个张量的比例来保持层的精度。这个过程对于FP16/FP32来说是不需要的,因为在一般的混合精度中,只需要损失张量的全局尺度就可以做损失缩放。

Q: 能否介绍更多关于Hopper GPU TEE的信息?

关于使用GPU进行机密计算,Azure是第一个在A100 GPU上支持CC的公有云厂商。

他们有一个关于GTC的演讲:Azure中的机密计算,你可以了解更多细节和演示。

本演讲介绍了在NVIDIA GPU中实现机密计算的五个步骤:

  1. 隔离租户的虚拟机
  • SEV-SNP使用虚拟机特定的加密密钥对虚拟机内存进行加密。
  1. 隔离GPU内存
  • 阻止MMIO从主机和其他GPU访问GPU内存和安全敏感配置。
  • 阻止来自GPU引擎的出站访问,除非经过加密 。
  1. 验证GPU状态
  • 利用NVIDIA认可的特定设备私钥提供硬件信任根。
  • HW RoT测量设备状态、固件状态,并生成由设备特定密钥签署的证明报告。
  • 客人应用程序和GPU驱动程序可获得证明。
  1. 安全密钥交换
  • GPU驱动验证证明。
  • 硬件信任根和GPU驱动之间的SPDM支持的Diffie-Hellman密钥交换。
  1. 数据传输加密
  • 从虚拟机到GPU的内存传输由驱动器加密,然后由GPU解密到HBM内存。
  • 从 GPU 到 VM 的内存传输由 GPU 加密,然后由驱动解密到 VM 中。

Q: H100 CUDA Core FP64算力是30TFlops, 相比A100, H100对传统HPC应用的加速多少倍?

A: HPC应用的范围涵盖很广,通常涉及使用FP64,采用FFT等。在基因组测序中,它还使用了几种动态编程算法,如Smith-Waterman。在Hopper中,FFT可以受益于块状集群和sm-to-sm网络,而Smith-Waterman可以受益于DPX指令。总的来说,FP64 CUDA核心和TensorCore将为HPC应用中的FP64内核提供良好的扩展性。

Q: DPX是如何完成工作的?与现有的有什么不同?

A:

如何加速:

这些新指令为许多DP算法的内环提供高级融合操作数支持。这将大大加快疾病诊断、物流路线优化甚至图形分析解决方案的速度。

有何差异:

H100引入了DPX指令来加速动态编程的性能。与安培GPU相比,算法提高了7倍。
5.jpg

Q: 如何将以前的代码改为新的编程层次,包括线程、线程块、线程块集群和网格?如果不改变,对性能有影响吗?

A:CUDA通过Cooperative Group API公开集群。因此,如果您已经在使用Cooperative Group API,那么应该更容易更改。此外,一些CUDA LIB(至少是cuDNN)已经在使用协作API,因此对于基于上层LIB/框架的应用程序,将直接且透明地受益于LIB/框架。线程块集群带来了更多线程和更大共享内存的协同执行,产生了更高的性能。

Q: 引用自GTC“通过ConnectX-7连接到NVIDIA QuanguM-2英伟达交换机,DGX超级POP可以用更少的交换机和电缆来构建,节省数据中心基础设施上的CAPEX和OPEX。”除了节约成本外,从性能角度来看,是否有升级到ConnectX-7的用例/必要性?

A:ConnectX-7提供400G带宽,是ConnectX-6的两倍。NDR IB交换机支持32 SHARP trees。它可以支持更多的网络计算实例。

Q: Hopper MIG 中是否已经包含 vCS 功能,即云业务提供商是否可以直接将 Hopper MIG 实例出售给多个客户,而无需单独购买 vCS 许可证?

A:MIG和Grid是2个独立的功能,可以协同工作,为云客户提供MIG实例,vCS属于Grid,需要许可。

Q: NVIDIA AI Enterprise 的研讨会和课程有哪些?

"为开发人员、数据科学家和IT专业人士提供企业培训服务。每购买10个许可证,企业版用户就可以获得一个教师指导的研讨会席位和两个自定进度的课程。"

A:以下是DLI研讨会和课程,优惠有效期为2022年3月21日至9月20日(6个月)。该优惠包括,每购买10个NVIDIA AI企业许可证,就可以获得一个教师指导的研讨会席位(价值500美元)和两个自学课程(每个价值90美元)。

“教师指导研讨会席位":是指一个人在固定日期参加一个DLI公开的教师指导研讨会。
中国公开研讨会的时间表定于4月发布,第一个研讨会将于5月下旬举行。
Ÿ "两门自学课程",客户将获得两张90美元的优惠券,可用于免费学习两门DLI在线自学的90美元课程。

Ÿ 详情请参考优惠指南。

Q: NVIDIA Morpheus - 运行Morpheus需要什么硬件,ConnectX NIC是否能够满足需求?是否一定需要BlueFiled DPU?

A:并不是必须,但推荐使用Bluefield DPU,主要优势: offload host CPU的运算负载;可以使用DOCA软件栈中已经实现的Telemetry服务。

Morpheus参考实施方案是使用带有英伟达GPU的英伟达认证服务器构建的,并运行RAPIDS数据分析框架、Triton推理和底层CUDA加速库。该参考实现方案可选择使用英伟达BlueField DPU和DOCA遥测接口,以收集应用程序和网络遥测数据并将其流向Morpheus AI框架。

如果不用 BlueFiled DPU,用户使用的软件、硬件可以把关注的Telemetry信息导入morpheus就可以。在DOCA里面NVIDIA开发了Telemetry的框架,DOCA运行在BlueFiled DPU上但不能运行在ConnectX NIC上的。如需在ConnectX上运行Telemetry,需要客户自己开发。

Telemetry 是新一代从设备上远程高速采集数据的网络监控技术,设备通过“推模式(Push Mode)”周期性地主动向采集器上送设备信息,提供更实时、更高速、更精确的网络监控功能。Telemetry使用 GoogleProtocol Buffer格式编码,并通过 gRPC协议传输数据。

Q: 对于 cuOPT, 目前有哪些应用场景和成果?

A:

CUOPT: RAPIDS与启发式算法结合,更快地解析大数据,实时优化车辆路线规划和物流
适用行业运输、仓储、制造、零售和快餐店。应用
路线优化: 动态路线优化使用先进的算法,为调度员和驾驶员提供路线,

降低里程数、燃料成本、CO2 排放量和空闲时间。

物流配送公司可以获得有关路况、交通数据和路线建议的实时反馈,以建立更准确的到货时间预测。

针对限制条件的优化: 对具有有限容量以及不同成本的运输工具,进行移动情况建模。

例如新鲜农产品等商品必须由配有冷藏设备的卡车运输,或者有的客户只能在特定时段接收货物。

仓库拣货: 在拣货和包装流程中实现自动化存储和检索,从而在收到新订单时动态规划和重新规划机器人路线,高效地将货物装载到卡车上。

主要的客户价值:
快速优化 – 将发出1000个包裹的时间由20分钟提升至10秒(120倍)。

世界纪录的准确性 - 实现世界上最好的结果 规模扩大到10000个地点,在Gehring & Homberger基准的190/300实例上。

最大的规模 - 动态地重新运行模型,并在SLA时间限制内根据变化进行调整。

节省数百万 - 通过动态重路减少成本达15%。

Q:介绍一下Modulus?

A: Modulus 是一个独立于Omniverse的框架,属于Accelerated computing / High Performance Computing系列Framework 软件,它提供了一个基于CLI的工作流来训练物理ML模型并进行推理。用户需要使用后处理应用程序来可视化结果,比如Paraview。 Modulus也可以作为Omniverse生态系统的一部分,将作为OV应用程序提供,由Omniverse为Modulus提供交互式可视化后处理。

Q: Omniverse Cloud是公有云吗?它是否只适用于Omniverse协作工作,如NV Geforce Now?应用什么操作系统?Win10还是Linux?

A: Omniverse Cloud是NVIDIA自己运营的面向个人创作者、艺术家、设计师的云服务平台,Omniverse Cloud包括:Nucleus Cloud(一键协作共享服务),通过GeForce NOW串流提供的Create、View streaming服务),方便创作者在不同地方进行工作,不必受限于自己的工作电脑。目前,Omniverse Cloud完整功能仍在开发中,现在处于早期访问阶段(不适用中国大陆地区),具体订阅价格也未公布。

Q:OVX是ubuntu操作系统。因此,客户无法使用一些依赖Win10操作系统的应用程序,如OV Create、OV Audio2F等。所以OVX是否只适用于基于Isaac Sim的数字孪生?

A: OVX是由NVIDIA定义的用来运行OVE的硬件系统,可以是单个服务器系统,也可以是一个数据中心规模的计算系统,目标是为基于Omniverse模拟大规模实时工业数字孪生提供算力支持。 OVX不会像DGX产品那样由NV定制和销售,而是由OEM合作伙伴制造和销售,在中国目前认证两家合作伙伴是浪潮和联想。客户可以今年第二季度通过通过浪潮、联想始购买OVX服务器。OVX SuperPOD的架构堆栈将于今年晚些时候提供。

Q:Omniverse可以从RTX PC扩展到超算系统

A:

  1. 连接到托管Omniverse Nucleus的云平台上解决用户端RTX PC性能不足问题

2.工业级数字孪生,实时仿真需要专门构建新型计算机

  1. 科学计算数字孪生E2 HPC

Q:是否有西门子Modulus+Omniverse的风电场数字孪生案例的详细资料?

A:推荐观看GTC相关Session,以下session供参考:

Developing Digital Twins for Weather, Climate, and Energy [S41823]

Case Study on Developing Digital Twins for the Power Industry using Modulus and Omniverse [S41671]

Q: 是否有NVIDIA OVX SUPERPOD整体方案的详细配置和reference architecture方案? (计算+存储+网络等)

A: OVX SUPERPOD由一个或多个OVX SU(Scalable Unit)、网路系统、存储系统、控制节点和OVX软件栈组成。

每个SU包含32台OVX服务器,OVX服务器的配置是固定的,有两个OEM 供应商可供选择,分别是浪潮和联想。对于规模比OVX SUPERPOD小的需求,我们可以提供OVX POD,OVX POD可以由8台或者16台OVX服务器构成。

OVX SUPERPOD网络系统可以分为两个情况。对于单个SU或者OVX POD的用户,只需要一对Spectrum-3 4600 series 交换机就能够满足需求。对于多个SU构成的大型SUPERPOD用户,整个网络系统由多套TOR交换机和SPINE交换机构成,这些交换机的型号都是 Spectrum-3 4600 series ,我们会提供详细的网络设计方案帮助用户确定交换机的具体数量。其中使用的光纤网络线缆,我们推荐使用NVIDIA原厂线缆;当然我们也会提供兼容列表和详细技术规范,方便用户选购第三方光纤网络线缆。

存储系统,我们推荐使用DDN AI400X存储系统。该存储系统一般由多个存储节点组成,我们要求每个SU至少配置250TB存储空间和一个存储节点;如果对存储容量和性能有额外要求,请和DDN沟通。

控制节点,我们将提供CPU控制节点/Nucleus服务器的推荐硬件配置,用户可以基于此配置选购合适的服务器型号。

OVX软件栈主要由NVIDIA Base Command和NVIDIA Omniverse Enterprise构成。我们会依据OVX SuperPOD的硬件配置来制定各个模块的软件授权数量,具体配置方案需要和NV的技术人员/销售沟通。

Q:NVIDIA是否有计划支持容器直接安装vGPU?

A: vGPU产品及开发t没有此计划,NVIDIA vGPU产品是以hypervisor/VM为前提的。

推荐阅读
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息