雪湖科技王韵:从GPU到FPGA,人工智能“换道超车”

2019-06-18 16:26:27爱云资讯

“FPGA是一个好的计算平台,只是一直被埋没,它的算力没有被充分挖掘;其次人工智能兴起之后,对算力的需求越来越大。”

6月11日,在2019 CES Asia展会的初创企业展厅,雪湖科技联合创始人、首席运营官王韵向记者阐述自己创立这家企业的两点时机,他同时也是长江商学院制造创业体验营营员。这位曾在日本富士通工作过的创业者,穿着印有雪湖科技Logo的Polo衫。

王韵在CESA雪湖科技的展位上

此次在长江商学院所在的展台上,王韵展出了他们的FPGA(Field-Programmable Gate Array)神经网络加速器产品,这是一种用于硬件可重构的体系结构。相对于GPU,在提供强大的计算能力的时候,针对不同用途可以有足够的灵活性。

一些生产FPGA芯片的企业,可以利用王韵他们团队的技术挖掘FPGA的算力,满足人工智能的运算需求。

在王韵说话间,整个半导体行业正在进入一个不确定的时代。中美贸易摩擦正使得各大产业的巨头都面临产业链供应风险。

王韵说,只要客户愿意用,这对任何技术企业来说,都是非常好的一个切入点。“因为他就可以开始迭代了,而且这个客户会教着这些技术公司,带着他们往前走……再加上现在又有科创板这些资本市场的支撑。“

王韵认为,特别是半导体、芯片这些技术领域的创业者,“这是最最幸福的时候,这个窗口期是在5年到10年左右的时间”。

当然,构成这个产业机遇的还有“摩尔定律”出现放缓,走过半个多世纪的这个定律曾经勾画了半导体产业的规律:当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。

现在“摩尔定律”越来越失效了,于是,随着计算需求愈加复杂,在芯片上需要继承的电路越来越多,针对于特定场景的定制化芯片加速计算的方式成为新的机会。

“FPGA是在人工智能浪潮中将会被不断使用到的技术,不会被很快迭代,不管这个浪潮发展到什么程度,它都会吃到一块很好的市场份额”。

在创立雪湖之前,对于王韵和他的团队来说,他们就从事FPGA方面的技术研发已有十多年。

在2000年到2012年期间,他们最初从事这一领域工作时,用FPGA去做数字加速这件事尚是冷门,因为当时比较复杂的运算用GPU的服务器就可以满足,而FPGA运算加速基本都在金字塔顶端,负责更为复杂的运算。

王韵他们团队当时主要做的工作是与微软提供超大规模运算加速、给NASA提供超大规模运算的加速。

如今,人工智能行业崛起后,CPU不再满足算力的需求,需要对神经网络进行加速,这也是人工智能领域非常底层的根本性需求。

那么为什么不干脆开发一款AI专用芯片?

在王韵看来,专用的AI芯片有其局限性,因为神经网络的模型迭代速度很快,基本上每3.8个月就有一个新的神经网络模型出现,而AI专用芯片的研发周期又长,一般是一年半到两年的时间,往往芯片模型做完,已经迭代了好几代了。

而FPGA具有可编程和灵活性,只需要将现成的算法和技术复制到FPGA上面就可以了。

FPGA芯片从1983年就开始出现,在美国赛灵思和英特尔两家厂商都在不断搭建生态,但目前仍然不成熟,而在中国,则更为初期。

中国在FPGA领域的需求都集中在华为中兴这样的大企业,开发人才也主要集中在大企业中,即使这样,这些大企业中的人才所擅长的更多是通讯方面的FPGA运算,而一些学院派的技术人员又缺乏工程化的能力。

像王韵和他的团队这样的并不多,出身大机构,将很多的Know-how掌握在自己手里,并从底层打造一套全新的工具链,构建自有的工具链。

多年在FPGA神经网络加速算法上的积累和长期在业界所培养出的工程化能力给王韵他们团队构筑了一定的技术门槛。

除了芯片行业进入不确定时期之外,国际上对于技术的竞争也波谲云诡。

由于美国起步时间早,再加上国外大厂疯狂搭建生态,专利和知识产权的天花板使得中国自主的FPGA厂商大多都只能生产较低端的FPGA产品。

但王韵和团队所研发的FPGA神经网络加速器,可以在较为低端的FPGA芯片上进行人工智能的运算,在硬件成本不变的前提下,将产品的性能提升。

在王韵看来,这是一种“换道超车”。

在这一次的CES Asia展会上,王韵用“意外”形容自己的感受。

早上许多人都围在他们的展位,聊到许多各式各样的应用场景,很多企业发现他们都在算力上遇到瓶颈,希望能够用神经网络解决一些问题。“接触更多的客户,对于我们企业的发展很有帮助,一上午聊下来,我们发现很多新鲜的东西,需要好好消化一下。”

据了解,展会上,雪湖科技还发布了全新产品Yolo_V3 Tiny加速器,为实现目标检测功能提供硬件加速,其体现的低功耗、高速度和性价比,尤其以“GPU的两倍吞吐量(throughput),一半时延(latency)”的优势,为云计算、自动驾驶、安防检测、工业检测、机器视觉等高性能计算应用的落地,吸引了许多厂商的目光。

Yolo_V3 Tiny加速器是雪湖科技深度学习加速器平台的一员,可实现112FPS,时延9 ms的性能,相较于价格昂贵的GPUTeslaV100,吞吐量增加一倍,时延减少一半。支持多框架设计(Tensorflow,Caffe,Pytorch,MXNet,Matlab等),可快速移植至多种FPGA芯片(包括Xilinx,Altera等),保证高计算能力的同时不失高灵活扩展性。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023