5月14日,英伟达一年一度的“GTC大会”在线上开幕。此次大会上,英伟达正式发布了全新数据中心GPU——NVIDIA A100,即此前在网上盛传的被命名为安培(Ampere)的产品。英伟达创始人兼CEO黄仁勋在线上发布会上介绍称,该新品GPU包含了540亿个晶体管,拥有比原来强大20倍的AI算力。
因为疫情的缘故,英伟达原本定在3月的发布会被一推再推,两个月的时间没有白等,英伟达终于带来了一道“硬菜”。
加码AI“引擎”
从烤箱里端出来的不一定是培根,也可以是“安培”。英伟达这次的线上发布会是别出心裁的,地点选在自家厨房,公司创始人兼CEO黄仁勋从烤箱中将“主菜”端了出来,而这道菜就是“安培”——Ampere架构GPU新品。
黄仁勋介绍称,NVIDIA Ampere包含了540亿晶体管,拥有比原来强大20倍的AI算力。“如果AI是跑车,数据就是燃料,而算力则是引擎。”英伟达研发中心总经理王玮琦曾表示。英伟达此次也通过NVIDIA Ampere向业界宣布:我们的AI“引擎”很强大。
英伟达官网的介绍显示,“这是一款有史以来最大的7纳米芯片”,NVIDIA Ampere具有六项突破性关键创新。
一是NVIDIA Volta架构中率先采用的NVIDIA Tensor Core技术助力AI实现了大幅加速。NVIDIA Ampere架构以这些创新为基础,通过引入新的精度——Tensor浮点运算(TF32)、FP64加速和简化AI技术,并将Tensor Core的强大功能扩展至HPC。二是多实例GPU(MIG)。借助MIG,每个A100可以划分成七个GPU实例,在硬件级别上可实现完全安全、彼此隔离,并拥有自己的高带宽显存。
三是第三代NVIDIA NVLink技术通过为多GPU系统配置提供更高的带宽、更多的链接,并改进可扩展性,进而解决互连问题。
四是结构化稀疏,A100中的Tensor Core可为稀疏模型提供高达2倍的性能提升。稀疏化功能对AI推理更为有益,也可用于改善模型训练的性能。
五是A100正在为数据中心提供海量计算能力。它具有每秒1.5TB的显存带宽,比上一代高出67%。此外,A100的片上存储空间更大,包括40MB的2级缓存(比上一代大7倍)。
六是NVIDIA EGXA100结合了NVIDIA Ampere架构和NVIDIA Mellanox的ConnectX-6 Dx SmartNIC,为计算和网络功能加速,且可处理边缘端产生的大量数据。
完善AI产品生态
谈到AI算力,就不得不提到英伟达,业界公认它为AI时代算力增长的“红利收割者”,而英伟达在AI上的野心不止于提供高性能“引擎”那么简单。
此次发布会上,英伟达还推出了两款计算平台,其一是适用于大型商业通用服务器的EGX A100。据介绍,EGX A100是基于安培架构的A100 GPU,每秒可接收高达200GB数据,并可将数据直接发送到GPU内存用来进行AI或5G信号处理。其二是适用于微型边缘服务器的EGX Jetson Xavier NX。EGX Jetson Xavier NX是被称作全球体积最小、性能最强大的Al超级计算机,适用于微型服务器和边缘智能物联网盒。
从英伟达在计算平台的布局来看,它在自动驾驶计算平台已经建立起从10TOPS/5W、200TOPS/45W到2000TOPS/800W的完整产品线。在医疗领域,NVIDIA Clara医疗平台曾在20分钟内分析了整个人类基因组的DNA序列,实现研究人员对病人对疾病的易感性、疾病的进展和对治疗的反应更为深入的了解,构建了疾病监测AI模型;利用Clara技术进行胸部CT扫描检测,来研究COVID-19感染的严重程度。
这次发布会上,英伟达不仅带来了新一代安培架构,还推出包括GPU芯片、AI系统、服务器构建块、AI超级计算机、边缘服务器产品、嵌入式AI产品等全套AI计算“大礼包”。
赛迪顾问人工智能产业研究中心副总经理邹德宝在接受《中国电子报》记者采访时指出,英伟达从技术层、产品层、产业链层和供应链层均有布局,在构建生态上具有一定优势,也因此进一步奠定了它在业界的领先地位。
业内专家向记者指出,利用生态开发来延长产业链,是企业提升自身综合竞争力的关键步骤,也是所有AI芯片公司从技术研发走向商业化落地的必经之路。