NVIDIA HGX A100系统带有A100 80G PCIE,NDR 400G Infiniband和Magnum IO,以加速AI和HPC
NVIDIA添加了NVIDIA A100 80GB PCIE GPU,NVIDIA NDR 400G Infiniband网络和nvidia magnum io gpudirect存储软件到其HGX AI超级计算平台,以提供极端性能,以实现工业HPC创新。高科技工业先驱通用电气正在使用HGX平台,将HPC创新应用于计算流体动力学模拟,该模拟指导大型燃气轮机和喷气发动机设计创新。A100张量核心GPU提供了前所未有的HPC加速度,以解决复杂的AI,数据分析,模型培训和仿真挑战。NVIDIA Infiniband和Magnum io GPudirect Storage会增强整个过程中需要无与伦比数据的HPC系统,可在GPU内存和存储之间进行直接的内存访问。
NVIDIA A100 80GB PCIE性能增强了AI和HPC
A100 80GB PCIE GPU会增加GPU存储器带宽25%,并提供80GB的HBM2E高带宽内存。它的巨大记忆能力和高内存带宽允许在记忆中保存更多数据和更大的神经网络,从而最大程度地减少节间通信和能耗。结合更快的内存带宽,它使研究人员能够获得更高的吞吐量和更快的结果,从而最大程度地提高其IT投资的价值。A100 80GB PCIE由NVIDIA AMPERE Architecture提供动力,该体系结构具有多种现实GPU(MIG)技术,可为较小的工作负载(例如AI推理)提供加速度。MIG允许HPC系统通过保证的服务质量来扩展计算和内存。除PCIE外,还有四个和八向NVIDIA HGX A100配置。
下一代NDR 400GB/S Infiniband Switch系统
NVIDIA Infiniband将需要无与伦比的数据的HPC系统增压。NVIDIA Quantum-2固定配置开关系统为每个端口(或NDR200的128个端口)提供64个NDR 400GB/s Infiniband的端口,与HDR Infiniband相比,端口密度高3倍。NVIDIA Quantum-2模块化开关提供可扩展的端口配置,最多可达2,048个NDR 400GB/s Infiniband(或NDR200的4,096个端口),总双向吞吐量为1.64 pbs,每秒为1.64 pobits-posepers the Phestenaineration the Phesteneration the Exeneration the Exeneration the Peneration the Peneration。2,048-port Switch的可扩展性比上一代提供了6.5倍,并且能够使用Dragonfly+网络拓扑连接超过三百万个节点。
Magnum io Gpudirect存储软件
MAGNUM IO GPUDIRECT存储提供了一条直接路径,使应用程序能够受益于较低的I/O延迟,并使用网络适配器的完整带宽,同时减少CPU上的利用负载并管理增加数据消耗的影响。