谷歌推出第三代人工智能TPU 人家怎么这么厉害
2018-10-05 22:24:15AI云资讯1575
张量处理单元于2016年在Google I / O上宣布,当时谷歌表示TPU已在其数据中心内使用了一年多。该芯片专为Google的TensorFlow框架而设计,用于神经网络等机器学习应用。但是,谷歌仍然使用CPU和GPU进行其他类型的机器学习。

“纽约时报”报道谷歌“将允许其他公司通过其云计算服务购买这些芯片的访问权限”,谷歌的TPU是专有的,但尚未商业化。谷歌也使用TPU进行谷歌街景文本处理,并能够在不到五天的时间内找到街景数据库中的所有文本。在Google相册中,单个TPU每天可处理超过1亿张照片。它也用于Google用于提供搜索结果的RankBrain。
与GPU相比,它设计用于大量低精度计算(例如,低至8位精度),每瓦特IOPS更高,并且缺少用于光栅化/ 纹理映射的硬件。
第一代TPU是一个8位矩阵乘法引擎,由主处理器通过PCIe 3.0总线用CISC指令驱动。它是在一个制造28纳米工艺用模具尺寸≤331 毫米2。的时钟速度为700 MHz的,它有一个热设计功耗 28-40的w ^。它有28 MIB的片上存储器,以及4 MIB的32位累加器服用一个256x256的结果脉动阵列的8位的乘法器。TPU封装内有8 GiB的双通道 2133 MHz DDR3 SDRAM,提供34GB / s的带宽。指令将数据传输到主机或从主机传输数据,执行矩阵乘法或卷积,并应用激活函数
第二代TPU于2017年5月宣布。谷歌称第一代TPU设计的内存带宽有限,在第二代设计中使用16 GB的高带宽内存,带宽增加到600GB / s,性能提升到45 TFLOPS。然后将TPU安排到4芯片模块中,性能为180 TFLOPS。然后将这些模块中的64个组装成256个芯片盒,其性能为11.5 PFLOPS。值得注意的是,虽然第一代TPU仅限于整数,第二代TPU也可以浮点计算。这使得第二代TPU对于机器学习模型的训练和推理都是有用的。谷歌表示,这些第二代TPU将在Google Compute Engine上提供,用于TensorFlow应用程序。
第三代TPU于2018年5月8日宣布。谷歌宣布处理器本身的功能是第二代TPU的两倍,并且将部署在具有前一代芯片数量四倍的pod中。与第二代TPU部署相比,这使每pod的性能提高了8倍。
相关文章
- 谷歌DeepMind的新型AI模型可通过网络搜索帮助机器人完成任务
- 谷歌新款Windows桌面应用为PC端带来类苹果Spotlight搜索栏
- 谷歌Waymo获准在旧金山提供机场接送服务
- 谷歌公布Gemini使用权限
- 苹果为Siri开发的AI搜索工具或将利用谷歌的Gemini AI模型来汇总网络信息
- 谷歌已完成AI眼镜开发,或由HTC代工量产
- 告别短信验证码:谷歌测试二维码验证技术,让短信更安全
- 苹果与谷歌洽谈使用Gemini AI模型改造Siri
- 谷歌Gemini人工智能推出全新引导学习模式
- 谷歌搜索的AI模式升级,新增作业识别功能
- 谷歌CEO桑达尔·皮查伊表示,人工智能对谷歌每个领域的业务都产生了积极影响
- 谷歌持续加码人工智能领域导致碳排放量再次攀升 较2019年激增51%
- 谷歌发布新一代AR眼镜 立讯精密深度赋能
- “5G核心网络即服务”时代来临:爱立信携手谷歌云共谱AI新篇章
- 云从科技超越谷歌、OpenAI问鼎全球多模态榜单 中国自研AI实现历史性突破
- 谷歌与大朋VR 聚焦AI 眼镜赛道,技术布局凸显行业新方向