中文    ENGLISH    X-Conception

磐镭智能咨询热线: 400-998-3678

行业资讯
全国服务热线
400-998-3678
行业动态

当前位置:首页 > 行业资讯 > 行业动态

黄仁勋:GPU才是AI时代的摩尔定律

浏览次数:    时间:2017-09-27 17:56:49

摘要:在日益变得颠覆的AI背后,总有NVIDIA的影子。本文作者:李赓雷锋网按:在日益变得颠覆的AI背后,总有NVIDIA的影子。今天上午,作为NVIDIA全球GTC(GPUTechnologyConfer

在日益变得颠覆的AI背后,总有NVIDIA的影子。

本文作者:李赓

雷锋网按:在日益变得颠覆的AI背后,总有NVIDIA的影子。

今天上午,作为NVIDIA全球GTC(GPU Technology Conference)大会中最重要的一站之一,GTC China再次在北京召开了。身着标志性黑色皮衣的教主黄仁勋也在本次大会开始之际,奉上了一场题为“一个全新的计算时代(A NEW COMPUTING ERA)”的主题演讲。

按照惯例,NVIDIA基本上每年都会将自身重要的产品发布、软件更新在5月份美国本土召开GTC上宣布。而全球其他地区的GTC大会则主要是根据各地区的情况进行微调和“重新演示”,本次的GTC China亦是如此。

但也正是因为如此,也给了黄教主更多时间去介绍NVIDIA今年的新进展,同时也毫不隐晦的展示出一个结论——NVIDIA不仅仅在AI浪潮中,而且是这波浪潮得以成型推进的重要原因。

为什么说GPU是必然的选择?

性能

这个话题实际上曾出现在今年NVIDIA的数个活动中,就连黄仁勋自己也说了很多遍,正如黄教主今天在Keynote演讲中强调的那样(牙膏厂跪倒在地):

过去整体行业都是依赖摩尔定律来推动,但它太老了,太慢了,GPU才是全新的‘超级摩尔定律’,这也是整个行业一次千载难逢的机遇。

这种性能发展上的差距与串行/并行运行的原理有着直接的关系,最终的结果就像NVIDIA多次展示的那样,在2010年之后,GPU类处理器内部的晶体管数量还保持着快速增长的势头,而CPU已经出现了明显的放缓。

应用场景

除了性能之外,应用场景的出现则是另外一个重要的点。尤其是NVIDIA在2008年开始打造CUDA架构之后,GPU的用途已经发生了翻天覆地的变化。而长久以来受限于CPU处理能力的人工智能也在那个时刻找到了更加适合的源动力,并且凭借GPU的性能不断提升,极大的拓展了人工智能的能力和适用范围。

正如黄仁勋在此次Keynote中再次提及的部分NVIDIA最新“AI产品”:之前雷锋网曾在洛杉矶SIGGRAPH大会上报道过的‘Interactive Ray Tracing(工业渲染预测加速)’,利用语音就能生成的虚拟头像,能够让游戏虚拟角色根据地形做出高度仿真动作的全新算法等等。

不过这些技术和全新算法之所以能够成为现实,最关键的原因还是GPU能够提供足够的处理能力。

AI云时代的到来

在此次大会上,黄仁勋也亲自宣布了一个重要的里程碑进度——国内的三大公有云公司:阿里云、百度云、腾讯云均已经引入了NVIDIA的硬件,并且向B端用户开始提供AI相关能力的服务。

传统CPU方案(上)与NVIDIA方案(下)的对比

这个改变最大的根源实际上是成本,正如黄仁勋在大会现场举的一个例子:按照传统方案,云服务商可以采购4个机架、共160个CPU服务器,在功耗65千瓦的情况下提供每秒45000张照片的处理能力。而如果换成NVIDIA的产品,你只需要一个装有8片V100 GPU的NVIDIA HGX服务器,同样的每秒45000张照片处理能力,但是你只需要7个服务器插槽,总共的功耗也只有3个千瓦。

明显的数字对比,背后是巨大的采购和运营成本差距。换句话说,在AI云处理需求越来越大的当下,不是服务商选择使用NVIDIA的GPU,而是他们“被迫”使用NVIDIA的GPU。黄教主给出了一个非常精要的总结:

你用的GPU越多,你省的钱越多!(More GPU,Save More Money!)

当然,选择NVIDIA的GPU还有另外一个重要原因,5月份的GTC上NVIDIA曾发布了专门用于云端GPU堆栈处理的技术架构NGC(NVIDIA GPU Cloud)。这种技术架构实际上拥有NVIDIA相应处理器产品的云运营商都有使用,进一步增加了GPU在云端的工作效率和使用率。

NVIDIA=AI浪潮的推动者?

就在上周,投行EvercorelSI曾对NVIDIA做出了一个最新的预测——后者的股价还有40%的上升幅度,因为投资者依旧“严重”低估了人工智能技术的市场。随后NVIDIA的股票随之大涨5%,也算是NVIDIA与AI浪潮关系紧密的一个侧面证明。

在这次大会上,黄仁勋也“重新发布”了NVIDIA GPU的AI优化技术TensorRT,其关键亮点在于人工智能场景下的巨大提升。在同样使用全新的V100 GPU的情况下,TensorRT相比通用的TensorFlow在图像分析场景下还能提升19倍之多,在语义分析场景下更是能提升22倍。

黄仁勋在随后的采访环节也给雷锋网解释了,这种“巨幅”提升的秘密——虽然GPU的绝对性能很重要,但是如何将不同的人工智能架构,与不同架构的GPU适配,实际上对后者性能的发挥有着巨大的影响。

左侧是普通人工智能架构,右侧是TensorRT优化之后的结果

并且TensorRT现在实际已经可以作用于所有常见的人工智能架构,例如:TensorFlow、Caffe2、Chainer、Microsoft Cognitive Tookit、Mxnet、PaddlePaddle、Pytorch、theano。

换个角度来说,NVIDIA实际已经在尝试甚至打造出了一套最适用于自身硬件的人工智能架构。也正是因为这个原因,V100才能凭借自身出色的性能,以及全新添加的Tensor Core,在人工智能的相关场景中获得最出色的表现。

这种在核心硬件性能上的拓展存在于NVIDIA的所有产品线当中,例如NVIDIA为自动驾驶硬件所搭建的DRIVE Works SDK,能够轻松的调用强大的硬件性能处理各种自动驾驶需求,无论你的传感器是摄像头、毫米波雷达、激光雷达。

另外一个具体例子是机器人领域,黄仁勋在此次Keynote演讲中特别提到了自动机器人方向,他还特别强调——这很可能是人工智能下一个最重要的领域。

而在今年5月的GTC大会中,NVIDIA也放出了一个对应的“大招”:全新的机器人训练方式“Project Isaac”。凭借这种全新技术,用户完全不需要再在机器人实物上进行重复的调试和实验,完全可以将整个场景搬到虚拟世界当中,并且利用GPU的学习能力,让机器自行学会最佳处理方式。

最最最关键的是,因为这种模拟运用的实际上也是NVIDIA的GPU,所以它所生成的算法完全能够移植到NVIDIA Jetson这样的终端AI芯片平台之上,直接让终端的机器人凭借之前学习的经验运行。

平台战略,爱

从另外一个角度来看,NVIDIA在2017年的诸多AI领域更新实际可以概括为一句话——做的越来越多,做的越来越全。

例如上文提到的TensorRT,它实际上在各大人工智能架构和NVIDIA的硬件之间搭起了一座“桥梁”。但为什么NVIDIA还要支持这么多种类架构?为什么NVIDIA不自己选择或者打造一套架构?

答:平台战略。这同时也是今天黄仁勋在媒体群访环节提到次数最多的四个字。用黄仁勋自己的话来说:

众人拾柴火焰高,有些事需要大家一起来做。

回到上面的AI架构类问题,打造出CUDA架构的NVIDIA实际上是有机会建立自己的人工智能架构、甚至参考苹果,推出自己的相应的系统,将整个系统的核心部分逐渐闭环,进而加强自身的掌控力。

目前NVIDIA正在合作的自动驾驶创业公司

但事实是,NVIDIA从人工智能技术最早期就跟全球的各大知名高校有合作,支持他们进行相应技术的开发;在自动驾驶领域,使用NVIDIA DRIVE套件的初创公司已经达到了145家,同时宝马、大众、本田等一批传统车企也和NVIDIA保持着紧密的合作关系;如果算上其他领域,目前NVIDIA自己的Inception创业公司计划的全球规模已经达到了1900家。

而如此广泛合作的出发点其实也很简单,黄仁勋在采访环节直接说了出来:

NVIDIA提供的是平台,也就是说NVIDIA的平台可以让其他的人去创业,去实现自己公司的梦想。

如果说上面这句话还略显模糊,那么黄仁勋在采访环节中回答另外一个竞争性的问题时,则更加直接说出了他自己的想法:

NVIDIA正在做的这些事业,没有爱是无法做成的。无论人工智能、自动驾驶这些事业哪一个做成了,我都会很开心。

在他说出“爱”的那一瞬间,这个穿着黑色皮衣的“核弹教主”真的有点萌。

附:黄仁勋媒体群访摘录

问:自主机器的时代什么时候才会来临?

黄仁勋:自主机器它需要解决的是三大根本的问题,第一个是为这些自动自主机器打造一个类似于人工智能的平台,第二个问题是给自主机器有一个虚拟的、来学会做机器人的这种环境,第三个问题是我们要想办法把大脑放到自主机器人的框架里面去。NVIDIA明年年初可能就会初步把这三个问题解决好,10-15年之后,大家会看到巨大的变化。

问:您认为GPU将来可以覆盖所有的场景,还是说在GPU之外还有更多的场景,更多的CPU也会制造出来,形成我们最终未来计算的一个模式?

黄仁勋:首先GPU不会替代CPU,它是携手和CPU共同工作的,这也是我们为什么把它称之为加速器,CPU是通用型的,什么场景都可以适用。但是GPU在一些专门的问题上是能量非常大的。它的性能要比CPU超过10倍,50倍甚至百倍。因此,我们就认为事实上最完美的架构是什么呢?首先我们要把万事皆能的CPU,在加上在某些重大计算挑战方面非常有能量的GPU。所以NVIDIA最终的选择是——我们不会做那些每一次好一点点的通用性的处理器,而是要做在一些专门的领域,性能极好的处理器。后者实际上就是CUDA。

问:如果非要选一个,您认为未来在人工智能领域是GPU重要还是FPGA重要?

黄仁勋:首先两者差异非常大,FPGA非常灵活,你甚至可以把它用到网卡里,但是GPU没有这么大的灵活性,它只是一种并行计算的加速器。所以GPU是术业有专攻。所以在三年前我们做了一个决定,把我们GPU做成Tensor执行处理器,现在已经成为世界上最优秀的Tensor处理器。

问:NVIDIA跟大众这样的车企有合作,也投资了图森未来和景驰这样的公司,你们对于合作是怎么思考的?

黄仁勋:首先我们在合作过程中,不是打赌,更不考虑输赢。NVIDIA提供的是平台,也就是说NVIDIA的平台可以让其他的人去创业,去实现自己公司的梦想。我们希望大家都成功。所以NVIDIA作为一家平台供应商,我们的任务是不断的让这个平台与时俱进,让它做得更好,让它不断的进步。NVIDIA绝对不是一个自闭的公司,也不是一个做垂直集成的公司,NVIDIA是一家开放平台型的公司。NVIDIA做得这个事业没有爱是无法做成的。

问:NVIDIA还会投资哪些公司?您下一个打算改变的行业是哪个?

黄仁勋:NVIDIA所提供的是这样的一个平台,我们提供的平台是针对所有的事物。当然我们也有重点,我们关心几个垂直领域,其中一个就是人工智能,还有一个就是交通运输行业。如果你问我们未来NVIDIA还有哪些重视的行业?当然医疗卫生或者健康产业是我们非常重视的。在这里我们相信我们可以帮助健康产业实现变革。例如新药研发、药物的临床实验、甚至是人群的病症研究等等。

问:您怎么看待中国的人工智能崛起?

黄仁勋:中国本身在计算机科学方面就是全球一流的。比如腾讯、阿里巴巴、百度,他们都是世界一流公司,又比如李飞飞,她不仅仅是我的好朋友,更是世界一流的人工智能科学家,所以我非常看好中国。因为中国的计算机整个产业的技术水平,本身就达到世界一流。

磐镭智能,以优良的品质、优质的服务、优惠的价格,在同行享有盛誉。一直以来为国内外提供专业的电脑硬件的OEM/ODM代工生产及产品开发设计业务,在国内市场日益成熟,电子商务高速发展,公司高度重视国内市场,制定了从OEM/ODM到自有OBM品牌开拓,从外贸市场转向国内市场开发,2015年开始建设自有品牌“磐镭”,是国内生产加工业企业转型成网络的电子商务直销品牌!

一部: 400-998-3678

二部: (86)755-83205093

邮箱:sales@pradeon.com

地址:深圳市龙华新区民治街道U创谷12楼

Copyright © 2016-2019 www.pradeon.com Rights Reserved.   版权所有 磐镭智能