英特尔的AI焦虑:芯片时代,显卡是否卖不动了?

2018-09-06 16:18:44爱云资讯

AI人工智能革命实际上是一场计算革命。人们可以说,人工智能处于尴尬的青少年阶段。 在市场上出现后,部分由于计算能力的提高和丰富数据的可用性,人工智能解决方案无处不在。“深度学习正在从2014年和2015年的辉煌童年转变为2019年和2020年的成熟时期,”英特尔人工智能产品集团副总裁加迪·辛格说道。



目前人工智能增长突飞猛进的一部分包括各种芯片解决方案,从像英特尔这样的传统芯片制造商,到像谷歌等云计算公司和一大批创业公司。 辛格认为,随着市场在未来几年逐渐成熟,它将向英特尔的优势发展。“随着空间走向更多的推理,更广泛的部署,现实生活中的解决方案,重点是延迟和TCO ......所有这些方面都真正发挥了英特尔多年来的优势,”辛格说。

AI驱动英特尔战略

自从深度学习在2014年左右开始突破以来,业内有三大趋势,辛格说,英特尔已经做出回应。首先,深度学习正在开发更丰富的功能并收集更丰富的数据 - 例如,图像识别已经从识别猫到识别3D图像中的潜在恶性细胞。接下来,组织正在从培训和概念验证部署转向推理。辛格表示,随着这种转变,人们越来越关注TCO。



第三个趋势是深度学习框架的出现。像Caffe和TensorFlow这样现在占主导地位的框架要么不存在,要么就在几年前还处于早期阶段。辛格说,这促使从专有解决方案转向高规模的集合解决方案。

为了预期更成熟的深度学习部署,英特尔已经做了好几件事,从引入更多人才和新技术开始。在过去几年中,英特尔已经收购了Nervana,Movidius和Mobileye,这些都是在Altera的投资之后。辛格表示,随着这些收购的进行,英特尔正专注于建立硬件和软件。在硬件方面,这意味着继续“将Xeon作为人工智能的基石,”他说。



首先,对于考虑整体TCO的云服务提供商和企业来说,它的效率更高。此外,他表示,英特尔已经通过AVX和其他扩展功能增强了Xeon,以帮助实现并发工作负载。该公司继续通过机器学习功能增强芯片,该功能将“对混合工作负载特别有效”,结合了神经网络计算和更传统的计算。

云公司生产的专用芯片怎么样?

英特尔的一些大客户正在根据自己的需求设计自己的芯片 - 例如,谷歌拥有TPU。这种发展是有道理的:毕竟,谁比谷歌本身更了解谷歌的人工智能处理需求?



Tensor Processing Units或TPU是由Google设计的定制机器学习芯片,用于成功执行其常规机器学习工作负载。这些TPU比标准CPU和GPU快15-30倍。 此外,在功耗方面,这些芯片的TeraOps /瓦特高出30到80倍。TPU 从测试到量产只用了 22 天,其性能把人工智能技术往前推进了差不多 7 年,相当于摩尔定律 3 代的时间。有媒体评论称 TPU 不仅为谷歌带来了巨大的人工智能优势,也对市面上已有的芯片产品构成了威胁。



谷歌又发布了 Edge TPU 芯片抢攻边缘计算市场。虽然都是 TPU,但边缘计算用的版本与训练机器学习的 Cloud TPU 不同,是专门用来处理AI预测部分的微型芯片。Edge TPU可以自己运行计算,而不需要与多台强大计算机相连,因此应用程序可以更快、更可靠地工作。它们可以在传感器或网关设备中与标准芯片或微控制器共同处理AI工作。



从最开始使用 CPU 跑 AI,到用 NVIDIA GPU 跑 AI,再到如今专有的 TPU AI 芯片跑 AI,就是专用场景优化的结果。

说到这一点,英特尔解释说自己可以提供紧密的系统集成,辛格说。 “这为云服务提供商带来了很多价值,他们将了解他们的内部解决方案如何与我们提供的产品和解决方案相匹配。这将在未来几年内得到解决。”

系统集成是英特尔赢得AI芯片大战战略的第三部分。“大多数任务,当你说有GPU或加速器执行任务时,实际上有一个工作负载需要组合......来解决它,”辛格解释说。他说,英特尔专注于“如何创建最佳系统解决方案,因为这将最终扩展,将为客户提供真实的解决方案。”

英特尔近期发布了一系列机器学习软件工具并暗示新芯片,包括其首款商用AI ASIC,即NNP-L1000,于2019年推出。这将是第一款商用NNP型号,它将基于新的Spring Crest架构,预计比之前的Lake Crest型号快三到四倍。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023