算力利用效率跃升,华为联合三大高校发布并开源AI容器技术Flex:ai
2025-11-23 22:41:57AI云资讯2254
2025AI容器应用落地与发展论坛在上海举行。华为公司副总裁、数据存储产品线总裁周跃峰博士在论坛上正式发布AI容器技术——Flex:ai,同时,华为联合上海交通大学、西安交通大学与厦门大学共同宣布,将此项产学合作成果向外界开源,助力破解算力资源利用难题。

当前,AI产业高速发展催生海量算力需求,但全球算力资源利用率偏低的问题日益凸显,“算力资源浪费”成为产业发展的关键桎梏:小模型任务独占整卡导致资源闲置,大模型任务单机算力不足难以支撑,大量缺乏GPU/NPU的通用服务器更是处于算力“休眠”状态,供需错配造成严重的资源浪费。
本次发布并开源的Flex:ai XPU池化与调度软件,是基于Kubernetes容器编排平台构建,通过对GPU、NPU等智能算力资源的精细化管理与智能调度,实现AI工作负载与算力资源的精准匹配,可大幅提升算力利用率。该技术深度融合了三大高校与华为的科研力量,形成三大核心技术突破:
算力资源切分,一卡变多卡,服务多个AI工作负载
针对AI小模型训推场景中“一张卡跑一个任务”的资源浪费问题,华为与上海交通大学联合研发XPU池化框架,可将单张GPU或NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%。这一技术实现了单卡同时承载多个AI工作负载,且通过弹性灵活的资源隔离技术,可实现算力单元的按需切分,“用多少,切多少”,使此类场景下的整体算力平均利用率提升30%,提高单卡服务能力。
跨节点算力资源聚合,充分利用空闲算力
针对大量通用服务器因缺乏智能计算单元而无法服务于AI工作负载的问题,华为与厦门大学联合研发跨节点拉远虚拟化技术。该技术将集群内各节点的空闲XPU算力聚合形成“共享算力池”,一方面为高算力需求的AI工作负载提供充足资源支撑;另一方面,可让不具备智能计算能力的通用服务器通过高速网络,可将AI工作负载转发到远端“资源池”中的GPU/NPU算力卡中执行,从而促进通用算力与智能算力资源融合。
多级智能调度,实现AI工作负载与算力资源的精准匹配
面对算力集群中多品牌、多规格异构算力资源难以统一调度的痛点,华为与西安交通大学共同打造HiScheduler智能调度器。该调度器可自动感知集群负载与资源状态,结合AI工作负载的优先级、算力需求等多维参数,对本地及远端的虚拟化GPU、NPU资源进行全局最优调度,实现AI工作负载分时复用资源。即便在负载频繁波动的场景下,也能保障AI工作负载的平稳运行,让每一份算力都“物尽其用”。
Flex:ai的全面开源开放将向产学研各界开发者开放所有核心技术能力。通过汇聚全球创新力量,共同推动异构算力虚拟化与AI应用平台对接的标准构建,形成算力高效利用的标准化解决方案,为全球AI产业的高质量发展注入强劲动能。
相关文章
- 算力靠“连”不靠“堆”!选对机头CPU才能引爆AI服务器潜能
- I/O完成关键突破,我国算力核心部件攻克国产化“最后1%”
- I/O完成关键突破 我国算力核心部件攻克国产化“最后1%”
- 青云科技清微智能:面向未来的国产 AI 算力“强耦合”
- 让AI算力触手可及,《1ms城市算网创新应用汇编(2025年)》正式发布
- 董恒江出席并发布《中国文化出海算力需求研究报告》
- 共绩算力:春节流量洪峰将至,你的AI应用“扛得住”吗?
- 云工场科技中标逾5亿元算力项目,推动国产AI算力集群规模化建设
- AI算力散热新纪元:瑞为新材以金刚石散热引领芯片热管理革命
- 博大数据入选“绿色低碳先进企业”,以技术创新引领算力基础设施绿色升级
- 算力需求激增引风口 寒武纪技术迭代赋能智能化升级
- 协创数据2025年业绩预增超50%:存储算力双轮驱动 构筑AI基建核心竞争力
- 彤央边端产品发布|100-300TOPS 稠密算力落地,云边端算力版图成型
- 维谛技术(Vertiv)37个集装箱集结完毕:汽车行业的算力引擎,由此启动
- 维谛技术Sidecar液冷:以高效“旁挂”哲学,破解AI算力高密散热挑战
- AI游刃有余 | 浪潮云海InCloud AIOS:异构算力“小时级”适配 打通智能生产力最后一公里









