谷歌将Marvell纳入双芯片TPU计划,ASIC AI推理格局或将重塑
2026-04-20 09:50:06AI云资讯1338

(AI云资讯消息)消息称,谷歌正与美满电子(Marvell)联合推进两款芯片的开发工作:一款旨在对当前TPU架构进行性能优化,另一款则是面向未来的下一代TPU设计方案。目前已启动初步磋商。
双方谈判究竟进展到哪一步尚属未知,但从初步披露的信息看,谷歌已提出双芯片方案:一款用于增强现役TPU,另一款则是全新的TPU架构。这意味着,合作的基本路线图已然划定。
这两款讨论中的芯片定位截然不同。第一款并非我们通常理解的那种定制TPU计算芯片,而是一块专门负责处理内存的单元,它将与TPU搭配工作。简单来说,这款特定的加速器或IP模块会把主芯片或系统的一部分内存运算压力分担出去,交给这颗专用的MPU来处理,即所谓的“内存内处理”。
第二款正在洽谈的芯片则定位为新一代TPU,主打AI推理模型场景的专项优化。现阶段,谷歌旗下最顶尖的AI加速器当属TPU v7(Ironwood系列),其单颗芯片搭载192GB HBM高带宽内存,峰值性能高达4614万亿次浮点运算(TFLOPs),并可通过Superpod架构将9216颗芯片聚合成超大规模算力集群。

虽说ASIC在AI推理赛道被寄予厚望,但产业链的隐忧尚未消散。一方面,有消息显示谷歌Ironwood系列TPU的需求势头渐猛;另一方面,却不得不正视产能瓶颈因为各大主要晶圆厂的产线目前均已满载运转。
从定位上看,这款MPU更像是与英伟达Groq 3 LPX类似的协处理推理加速器,也就是所谓的LPU(语言处理单元)。其搭载了500MB的SRAM高速缓存,并实现了150 TB/s的恐怖总带宽,旨在让即将问世的Vera Rubin平台在运行Agentic AI任务时发挥出极致效能。
种种迹象表明,谷歌的下一代TPU或将与那款MPU深度绑定。通过这种异构计算架构,内存子系统的数据搬运效率将获得二次加速,这意味着未来AI模型在推理部署时的响应速度会更快。
相关文章
- 谷歌推出Mac版Gemini人工智能应用
- Meta闭源模型Muse Spark登场,谷歌/微美全息加码投入开源AI“严阵以待”
- 谷歌正式接管母公司Alphabet旗下机器人软件企业Intrinsic
- 谷歌云客户业务负责人重返微软,出任安全主管
- 谷歌年度营收首次突破4000亿美元
- 谷歌权威发布!2026 AI Agent智能体趋势,九科信息一文带你深入解读!
- 谷歌在Chrome浏览器中新增Gemini AI驱动的自动浏览功能
- 小水智能出席谷歌创业先锋闭门会 携手Gemini构建全球化儿童AI生态
- 苹果Siri搭载Gemini技术,或为谷歌创造高达50亿美元的价值
- 苹果用谷歌Gemini AI模型推动Siri重大升级
- 谷歌母公司Alphabet旗下Wing无人机提供送货服务的沃尔玛门店将新增150家
- OpenAI狂揽软银2800亿融资,谷歌/微美全息领衔AI军备竞赛重塑大模型格局
- 高通与谷歌深化合作 拓展骁龙数字底盘与Android系统融合生态
- 火山引擎中国第一、全球第三,Tokens调用量逼近谷歌!
- 谷歌发布Gemini 3 Flash加速AI搜索并增强图像生成能力
- 易海创腾受邀出席谷歌2026代理商大会,共话出海新生态









