首页 > GPU云服务器 > 台北GTC最全回顾:GPU正在彻底革新这些产业

台北GTC最全回顾:GPU正在彻底革新这些产业

NVIDIA创始人兼首席执行官黄仁勋在近日召开的台北GTC上发布了HGX-2,这是一个“构建模块”云服务器平台,让服务器制造商能够围绕NVIDIA GPU创建更强大的系统,实现高性能计算和人工智能。

该平台的性能在五年内增长了500倍,并得到了包括所有计算机制造商和ISV在内的生态系统的支持。

台北GTC最全回顾:GPU正在彻底革新这些产业

黄仁勋发布HGX-2

黄仁勋表示,计算系统将为全球范围内数万亿美元的产业带来改变,而GPU在计算生态系统中处于核心位置。他认为想要实现在材料科学、能源和医学等方面的一系列突破,都有赖于更高的计算能力。

“计算需求之大前所未有,我们需要扩展摩尔定律,”黄仁勋表示。

性能飙升

黄仁勋详述了基于GPU的深度学习驱动的技术“寒武纪大爆炸”。在不到十年的时间内,GPU计算能力增长了20倍,即每年增长1.7倍,远超摩尔定律。

但由于AI的发展,我们对性能的需求还在“增长(而没有放缓)”。“在此之前,软件是由人类编写的,软件工程师只能编写有限的软件,但机器不会感到疲惫。”

“只要有数据,只要知道如何创建架构,我们就能够打造强大的软件,”黄仁勋如是说。“全球每个开发软件的公司都需要一台AI超级计算机。”

推出全新服务器

NVIDIA HGX-2融合了NVIDIA NVSwitch互联结构等突破性功能,将16个NVIDIA Tesla V100 Tensor Core GPU无缝连接为单一“巨型GPU”。NVIDIA的合作伙伴将于今年晚些时候推出首批基于HGX-2的系统。

“有了与你们的合作,任何人都可以使用这种未来融合型计算方式实现高性能计算和AI应用的创建,”黄仁勋对整个计算机行业中合作伙伴的支持表示了感谢。“我们有各种服务器。”

台北GTC最全回顾:GPU正在彻底革新这些产业

行业合作伙伴广泛采用NVIDIA的服务器平台

大无止境

HGX-2的核心是NVIDIA Tesla V100 GPU,它配备了32GB高带宽内存容量,可提供每秒125万亿次浮点计算的深度学习性能。

通过NVSwitch将多达16个Tesla V100 GPU连接在一起,造就了黄仁勋口中“全球最大的GPU”。

“每个GPU都能同时以300GB/s的带宽、10倍的PCI Express与其他GPU进行通信,”黄仁勋介绍说。“也就是说所有GPU彼此之间都能同时对话。”

黄仁勋还详细介绍了新款NVIDIA DGX-2,这是首款使用HGX-2服务器平台构建的系统。它重达350磅,可提供每秒2千万亿次浮点计算能力和512GB HBM2内存。

“这是有史以来创建的最快的单一计算机:一个操作系统、一个编程模型,你可以将它编程为一台计算机,”黄仁勋说道。“这就像是一台个人电脑,不过速度相当快。”

业界新法则

黄仁勋表示,DGX-2仅用六个月就实现了十倍于上一代计算性能的飞跃。在AlexNet图像识别基准测试中,相较于五年前基于一对NVIDIA GPU所达到的性能也实现了500倍的飞跃。

“业界已经迎来了新的法则,”黄仁勋说道。 “这个新的计算法则告诉我们:'如果你能够做到,而且如果你愿意在整个堆栈中进行优化,实现性能提升的速度就会非常快。'”

其结果就是:技术堆栈上下都涌现了一系列深度学习速度纪录,从单芯片性能到庞大的数据中心系统。

NVIDIA GPU Cloud (NGC) 扩展了这种性能的可访问性。它让研究人员不再受限于台式机和服务器系统,而是能够借力于由亚马逊、谷歌、阿里巴巴和甲骨文等提供商提供的云系统。

“这一软件的每一层都经过调优并通过了测试,”黄仁勋还补充说,如今有2万家公司已经下载了NGC。

台北GTC最全回顾:GPU正在彻底革新这些产业

NVIDIA为技术堆栈上下都提供了创纪录的性能

真实世界的结果令人惊叹。黄仁勋在场上与一位NVIDIA AI研究员一起,演示了实时移除照片中的细节,例如树木或路灯。

牢记PLASTER原则

黄仁勋说道,除了演示之外,要大规模地部署这样的深度学习应用,需要搞定七大挑战:可编程性 (programmability)、延迟 (latency)、准确性 (accuracy)、模型大小 (size)、吞吐量 (throughput)、能效 (energy efficiency)和学习频率 (rate of learning)。用这七个单词的英文首字母作为缩写就是PLASTER。

台北GTC最全回顾:GPU正在彻底革新这些产业

黄仁勋解释说,推理并非易事。

扩展能力将成为将新一代人工智能服务推向实际运作的关键,这是一种称为推理的过程,适用于语音合成与识别、图像与视频处理、以及推荐服务等等。

王者“KONG”

为展示这种扩展能力,黄仁勋演示了一个令人惊叹的花卉识别系统,基于一个CPU能达到的速度为每秒4张图像,而采用一个GPU则能扩展至每秒2500张图像,最高还能达到这一速度的4倍,这要归功于通过Kubernetes为更多位于桌面、数据中心和云服务提供商快速添加更多GPU以提供支持的能力。

“我们称之为NVIDIA GPU上的Kubernetes (Kubernetes on NVIDIA GPUs),简称KONG,”黄仁勋说道。

台北GTC最全回顾:GPU正在彻底革新这些产业

借助Kubernetes,GPU计算能够达到您所需的最大规模

“Kubernetes可谓超大规模的操作系统,”黄仁勋说道。“如果你看看整个堆栈,从GPU到可以放入Docker和容器中、运行于Kubernetes之上的所有API和库,这一软件堆栈如此复杂,数百名工程师数年来的工作就是围绕着它。”

新GPU,新的市场

NVIDIA服务器将为价值数万亿美元的行业提供超强的计算能力。

  • 在价值2万亿美元的娱乐行业,NVIDIA新推出的RTX技术可加速光线追踪,提供电影级品质的标准,再加上实时图形技术和人工智能,将加速当今基于CPU的传统渲染农场。
  • 在价值7万亿美元的医疗保健行业中,我们的Project Clara有望通过GPU计算来重新定义医疗成像,基于当前的医疗仪器实现更高的保真度,或使用更少的射线来生成相同质量的图像(将扫描仪的射线量减少六分之一,就能安全地用于儿童)。
  • 安全城市也代表了另一价值2万亿美元的市场机会。
  • NVIDIA正致力于通过其端到端的DRIVE平台解决交通运输领域的问题。交通运输代表着另一价值10万亿美元的市场。“未来一切能够运动的事物都将是自动化的,”黄仁勋详细介绍了NVIDIA在收集和处理数据、训练模型、模拟数十亿英里的驾驶、以及真正驾驶的能力。

“缩小”并瞬移到微型空间中

在演讲尾声,黄仁勋借助虚拟现实技术将我们的一位同事“缩小”并瞬移到了一辆微型车中,然后这位同事便开着这辆车行驶于一座微型城市中。

也就是说,有了这样的技术,人类就能在虚拟空间中成为AI机器的后备力量,无论这些机器位于何处、大小如何。

“未来,您将能够与机器人‘融为一体’,”黄仁勋对台下2000多名开发者、研究人员、政府官员和媒体说道, “您将能够实现远程即席 (telepresence) ,到达任何想去的地方。”

,可以参考香港服务器的资料,