从谷歌英伟达看算力突破和AI底层生态壁垒的逐步构建

2018-08-17 14:16:38爱云资讯

7月底至8月初,中泰通信互联网团队首席分析师吴友文通过硅谷未来学院Silicon Valley Future Academy,走访了硅谷重点的科技公司、科技创投机构、大学教授,围绕最新科技进展的多个方面进行了参访和交流。并就在硅谷的见闻,从相关具体方向进行梳理和思考,集结成“中泰通信硅谷思考”系列。

本篇为综合调研Nvidia、AI顶尖华人学者伯克利大学Allen Yang教授和走访多家创投对AI类公司看法之后的综合思考。

Nvidia英伟达的拜访是我们本次行程的重头戏,过去三年英伟达成了硅谷最明星化的公司,AI人工智能对并行计算的需求造就了GPU龙头焕发了新的时代,当然区块链挖矿需求的驱动也功不可没。我们在理解AI并行计算与传统CPU基本差异的时候,我通常用一个例子,CPU的运行更像是在读书,需要前后文语义来理解读懂逻辑,而GPU运行模式更像是在看一张图片,一眼就知道风景的好坏。而AI所需要的更多是并行计算,GPU成为CPU运行AI功能的加速器芯片的较好选择。

我们先看看调研中所了解的Nvidia英伟达的基本情况。英伟达的产品虽然都基于相似的GPU架构,但产品系列针对不同的市场,在AI的训练场景和高性能计算场景下,最典型的产品就是DGX-1 -2系列人工智能电脑,板卡系列主要包括TITAN、QUADRO、Tesla V100系列,所谓训练场景就是AI引用历史的大数据积累进行学习的过程;在AI的推理场景下,典型包括数据中心应用的Tesla P4、Tesla V100,智能驾驶应用的Drive Px2,工业智能应用的Jetson TX1等产品系列。我们也在英伟达的演示中心亲眼见证了其产品的不同花朵图片识别学习中的强大能力。

从过去三年增长来看,游戏影视对3D渲染需求的数量级增长驱动了公司游戏业务的加速成长,今年英伟达将RTX光线追踪技术作为主推产品,对比过去的格栅化3D构建,特点就是效果更智能化更好以及算力需求数量级再次增长。消费者的人性就是这样,你做出了更好更真实的3D视频效果,无论是游戏还是电影,那么就选择你。英伟达也是在持续的推动应用需求,巩固自身的产业地位。在AI人工智能需求领域,目前占比并不高,但是增速较快,数据中心应用和智能驾驶都是主要的方向,是未来主要的潜力市场。而在硅谷几家科技创投公司的交流中,我们也看到了机器人、智能驾驶、基因医疗领域等对AI计算能力要求较高的项目不断涌现,这是未来的趋势,算力对于AI来说一定是基础能力。

AI的潮流轰轰烈烈,身在其中如何把握未来的投资机遇,需要从产业逻辑的角度来进行理解,我们基于此次硅谷行程和之前的研究,初步归纳了三点:

1)算力能力突破已经进入AI应用的良性循环阶段。这并不是说算力已经够了,而是指算力到了一个合格的突破点上。我们在英伟达参观所看到的DGX-2电脑,回来查了一下其每秒2.2PFlops的计算能力,基本上等于2009年排名全球第一的超级计算机美国橡树岭国家实验室的CrayXT5,其算力为2.331PFlops。想一想,2009年全球最厉害的超级计算中心,你现在花100万rmb就买回家了,可以用来做量化投资、科学实验计算,这为发展应用提供了无数的可能。尽管AI的能力取决于算力、算法、数据三大因素,但是在算法、数据同等条件下,硬算力能力的不断提升一定是产业界确定性的追求。GPU作为加速器芯片的主流品种,也能够有效的为CPU突破摩尔定律提供可能。

而随着算力有效突破临界点,对算力需求较高的应用比如AI应用也将具备商业化开发的基础,推动高算力应用不仅仅是在实验室,而是在创新的大环境下由大众驱动。这也是很多技术发展的规律,只有突破了成本需求的临界点,广泛应用才成为可能。

2)AI底层厂商生态壁垒已经在构建的过程中。因为AI底层其实就是芯片、数据、算法等,目前主要看芯片和算法。从美国科技大公司来看,构建生态来形成护城河已经是一种必然的战略选择。类似于Intel的X86指令集,形成了自PC和服务器端芯片底层往上体系化的生态,而ARM的ARM架构,则是形成了在移动端自芯片底层往上体系化的生态,所以双方介入对手领域都有很高的壁垒。

我们如何来看AI底层的壁垒构建?AI加速器芯片包括GPU主要是围绕CPU工作,所以其自身指令集也存在但影响因素相对较低,这也是我们以前一直判断AI加速器可以成为国产弯道超车机遇的重要判断依据。国内的寒武纪在2016年在国际最顶级的ISAC提交了DianNaoYu人工智能算法指令集,应该说这是国内厂商构建生态最领先的做法。而对于目前AI底层最大的两家厂商英伟达和AlphaBeta,构建生态的壁垒略存在差异。

英伟达Nvidia更多通过CUDA构建的应用场景体系固化自身产业地位。目前英伟达已经开发了卷积网络、递归网络、增强学习、神经协作过滤、胶囊网络等等多种算法适配应用,也就是说目前市面可用的算法,英伟达都基于自己的GPU指令体系给开发好了,直接应用就行,而同时,在游戏应用场景、电影渲染、科学计算等领域,英伟达也具体推出了应用平台。可以这么理解,从基础的算力能力芯片,到适配底层的算法软件,到应用内核或者引擎,Nvidia提供了尽可能的一条龙服务,使用的人越多、使用的场景越多,对英伟达AI能力体系的依赖度就越高,其生态体系壁垒就越高,这种情形已经在形成,这是技术沉淀的过程也是时间积累的过程。而同时,英伟达的体系也是开放的,其对谷歌的TensorFlow、Theano、Caffe2等体系都能适配。这种生态壁垒会对未来的产业环境构成巨大影响,并且这种壁垒会随着时间越来越高。我们在六月份路演云生态变革主题时一直提一个观点,也许未来最大的芯片厂商是英伟达而不是Intel,这种生态壁垒是很大的判断因素。

谷歌AlphaBeta也是AI领域的佼佼者,其生态核心可能是TensorFlow。目前我们只是判断可能,谷歌的AI芯片TPU(TensorFlow Processor Unit)是一款ASIC芯片,可以理解为专门适配TensorFlow体系的芯片。而大家所熟知的Asic芯片只专门为某种算法提供最高效率所涉及,但是如果反过来看,如果TensorFlow的适配性够高,能够适配足够多的算法场景,那么芯片本身的低位就会被弱化。要产生这种生态体系,需要Tensor自身的适配能力,和足够多的开发者用户,基于谷歌的产业地位,这种可能性是存在的。

3)算力应用前景会对底层产业判断构成巨大影响。这一点可以与目前的大家关心的究竟会GPU,还是ASIC、FPGA、TPU、NPU等哪一种会占主流的争论有关,典型如区块链挖矿,用ASIC就效率最高,但是如果下游的单一应用场景足够大,专门的ASIC显然是很有前景的,区块链领域的比特大陆、嘉楠耘智的发展就是例子,还是我个人比较看好的基因测序科学计算领域,也是一个比较大的专用场景。但是从前面所讲的生态构建来说,大型厂商的目标在构建通用化的体系,适配尽可能多的场景,打造不可逾越的生态体系。如果在生态体系外进行投资,选择下游应用场景就是最重要的因素。未来对算力需求提升的业务非常多,我们一直有一个观点,云计算中心对算力投资的比重会在未来几年大幅提升,也就是所有的服务器都将加装价值甚至超过CPU的加速器芯片。所以,看应用场景,我们想在未来找到除了英伟达、谷歌这种巨头之外的AI加速器芯片厂商的投资机会。

AI的发展已经进入了日新月异的时间阶段,硅谷作为全球科技发展的龙头区域,其AI技术的发展方向和策略都对我们具备非常好的参考价值。希望中泰通信互联网团队的硅谷思考能够对您理解AI产业发展的趋势有所帮助,如果有任何讨论的问题,也可以随时联系我们。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023