Google联手Facebook 要在AI研究上搞什么大事吗
2018-10-08 17:03:23爱云资讯
“今天,我们很高兴地宣布,GoogleTPU团队的工程师正积极与PyTorch核心开发人员合作,将PyTorch与CloudTPU连接起来。长期目标是让每个人都能享受PyTorch的简便性和灵活性,同时能够从CloudTPU的性能、可扩展性和成本效益上获益。”Google产品总监RajenSheth说道。
PyTorch是Facebook的开源框架,可以开发人工智能研究中使用的数学程序。这样的框架允许研究人员开发任意复杂的数学计算图并自动计算衍生产物。
TPU是由Google专门为AI系统设计的计算机芯片。据Google描述,TPU比传统的图形处理单元(GPU)快15到30倍。
PyTorch有什么新功能?
近日,Facebook发布的深度学习框架PyTorch1.0主要有三大更新:
一是添加了一个新的混合前端,支持从Eager模式到图形模式的跟踪和脚本模型,以弥合研究和生产部署之间的差距。
二是一个经过改进的Torch分布式库,可以在Python和C++环境中实现更快的训练。
三是添加了针对关键性能研究的Eager模式C++接口,将在测试版中发布。
目前,研究人员和工程师必须面对许多框架和工具,以创建新的深度学习模型并将其转移到生产环境中大规模运运行,而这里多数框架和工具通常是不兼容的。如此,将会降低开发者在规模化生产中部署AI能力的速度。通过这个最新版本,将现有PyTorch框架的灵活性与Caffe2的生产能力结合,提供从研究到生产性AI的无缝路径。
Google的TPU有什么优势?
虽然TPU是一种专用集成电路,但它运行的程序来自TensorFlow框架下的神经网络,驱动了谷歌数据中心的许多重要应用,包括图像识别、翻译、搜索和游戏。通过专门为神经网络重新分配芯片计算资源,TPU在真实数据中心负载环境下效率要比通用类型的计算机高30-80倍,目前已为全球10亿人提供日常服务。另外,神经网络的推理阶段通常会有严格的响应时间要求,这降低了通用计算机所使用技术的有效性;通用计算机通常运行得较快,但某些情况下也会较慢。
为什么Pytorch与TPU建立连接很重要
将GPU上的大量数据与神经网络训练结合是当前深度学习系统成功的催化剂。可能需要花费数月训练的神经网络,在使用GPU训练时,时间缩短到短短的几个小时。随着深度学习的成熟,神经网络和数据集变得越来越大,这些网络现在需要数月才能在GPU上进行训练。谷歌专有的TPU为这些庞大的系统提供了一种更快速的训练方法。更快的训练意味着研究人员可以更快地进行实验,从而提高AI研究的速度。
为什么这种伙伴关系有利于人工智能研究
传统上,Google和Facebook通过GoogleDeepmind,GoogleBrain和FacebookAIResearch进行了独立的AI研究。因此,人工智能工具生态系统已经在Tensorflow(谷歌的AI框架)与Pytorch的辩论中分立,虽然竞争使得两个框架都以极快的速度发展,但其也使得研究在可重复性方面困难重重。
如果此公告标志着一种更加协作的AI研究方法,我们可能会看到这两个框架之间的互操作性得到改善。此外,这样的结果使得AI在智能手机上的部署更容易,也便于多种框架建构统一的工具生态系统,并改善研究结果的可重复性。
- Google发布AI领域新进展:涉及抗灾、生成式AI和语言模型
- Google Pixel Fold显示屏规格曝光
- Aqara绿米亮相Google I/O大会,支持Matter协议助力智能家居互通互联
- Google发布搭载Tensor处理器的Pixel 6a 售价449美元
- Google正在使用人工智能“更准确地检测更广泛的个人危机搜索”
- 飞书深诺荣膺三项Google 2021年优秀合作伙伴大奖,在出海营销机构中独占鳌头
- 神州数码旗下GoPomelo荣获Google Cloud年度合作伙伴大奖
- Google推出第四代定制AI芯片TPU v4
- Google AI再曝黑人女员工离职,这是所有科技公司都将面对的问题
- Google实验允许“听到颜色的声音”
- 谷歌开发的双击手势操作 可触发Google Assistant
- VR/AR大战或一触即发,苹果/Google/微美全息等布局5G商用的竞速赛
- 取代Android TV!谷歌或在3月推出全新的Google TV
- 诺基亚与Google签约以构建基于云的5G网络
- Google和苹果,为什么都想让你安装新系统
- Google最新的AR化妆功能曝光,微美全息AR+AI人脸识别精确解锁