“厨房”里的发布会:NVIDA发布全新专业计算卡
14日晚间,在NVDIA年度GTC2020大会上,首席执行官黄仁勋发表主题演讲,介绍了关于新一代GPU架构“安培”、全新的AI人工智能系列产品、HPC计算等。这次演讲的地方不再有大屏幕了,而是换成了厨房,果然是“刀工精湛的厨子”,毕竟N卡都是按帧数卖的。
GTC大会推出了新一代GPU,产品型号:NVIDA A100,基于全新的“安培”架构,黄仁勋表示“安培”架构将是超越上一代“图灵”架构的存在,成为NVIDIA迄今为止最大的性能飞跃,A100核心将包含 GeForce、Quadro、Tesla等,此次发布的A100将首先面向专业市场和数据中心,。
NVIDIA A100 Tensor
NVIDIA A100 Tensor基于新的“安培”架构,以前的NVIDIA Tesla V100 GPU的功能构建,增加了许多新功能,显著提高了HPC、AI和数据分析工作负载的性能。A100核心GPU面积为826mm²,包含540亿个晶体管,成为是世界上“最大”的7nm处理器。
作为NVIDIA数据中心的引擎,A100可以有效地扩展到数千个GPU,或者使用NVIDIA Multi-Instance GPU(MIG)技术将一个GPU分割成多达7个独立GPU,有效提高GPU资源利用率以满足不同规模的性能需求。
深度学习:
NVIDIA A100第三代张量核心(Tensor Core),通过零代码更改提供了比上一代产品高出20倍的性能,并持FP64双精度运算,为HPC应用提供了比上一代多2.5倍的算力。
高性能计算:
A100引入了双精度Tensor内核,这使研究人员可以在NVIDIA V100 Tensor Core GPU上运行的10个小时的双精度仿真减少4个小时。HPC应用程序还可以利用A100中的TF32精度,将单精度密集矩阵乘法运算的吞吐量提高10倍。
高性能数据分析:
配备A100以及第三代NVLink和NVSwitch的1.6 TB /秒的内存带宽可以应对繁重的工作负载。NVIDIA数据中心平台与NVIDIA Mellanox InfiniBand,Magnum IO SDK和RAPIDS开源软件库套件(包括用于Apache Spark的RAPIDS Accelerator,用于GPU加速的数据分析)相结合,足以应对巨大的工作负载。
A100为单GPU工作站和多GPU工作站、服务器、群集、云数据中心、边缘系统和超级计算机中运行的GPU计算和DL应用程序提供了强大的扩展能力。A100 GPU支持构建弹性,多功能和高吞吐量的数据中心。
NVIDIA EGX A100
EGX A100同样是基于“安培”架构,可以处理大量的实时边缘流媒体数据,创建更快、更高效和安全的边缘AI系统。
Mellanox SmartNIC:
借助板载Mellanox ConnectX-6 Dx SmartNIC,EGX A100包含专用的嵌入式加速引擎,这些引擎可减轻IP安全性(IPsec)和传输层安全性(TLS)移动数据以及存储数据加密标准XTS-AES的负担。
经过三年的打磨,NVIDA“安培”架构的GPU在AI领域、深度学习等领域无疑是最强的存在,至于面向游戏玩家的游戏卡,需要等到下半年,估计在科隆游戏展可能会发布,拭目以待吧~!