以“存算传一体化”架构,打破I/O瓶颈
2026-03-16 11:25:41AI云资讯1925
3月12日,中科曙光发布首款全栈自研400G无损高速网络——scaleFabric,实现国产高端原生RDMA技术的重要突破。该产品从底层的112G SerDes IP、硬件设备到上层的管理软件实现100%自主研发,填补了国内数据中心高速网络领域的空白。
高速网络突破的背后,是中科曙光以全栈芯片级国产化能力,构筑的“存算传一体化”紧耦合架构。通过将“超级隧道”技术与自研RDMA网络深度结合,为超大规模智算集群提供高效、安全、稳定的数据供给。
存算传一体化,打通数据高速通道
在AI训练和推理场景中,海量数据需要在计算节点与存储系统之间持续流动,若存储与网络适配不足,极易出现网络拥塞或资源竞争,拖累算力利用效率。
中科曙光通过“超级隧道”技术构建专属数据通道,并与自研RDMA高速网络深度适配、协同工作。系统在硬件层面为各数据域配置独享的RDMA网络连接和PCIe通道,并通过NUMA亲和性优化资源分配;在软件层面实现线程、内存与存储资源的绑定调度。通过软硬件协同优化设计,有效减少网络拥堵和资源竞争,让数据沿最优路径高速流动,持续为AI计算提供稳定的数据负载支撑。
全栈国产化,筑牢数据安全屏障
随着人工智能应用深入关键行业,数据平台的安全性与自主可控能力日益重要。曙光分布式存储构建了从芯片到系统软件的全栈存储国产化体系。
在硬件层面,系统基于国产CPU、国产IO控制器和国产全闪存介质构建,并结合高速互联网络形成完整架构;在软件层面,存储系统拥有完整源代码,实现基础架构与软件栈的全面自主可控。这一体系不仅保障数据安全,更为软硬件协同优化提供基础,使存储系统能够更好地适配AI负载需求。
绿色实践,赋能存算升级
当超大规模智算集群成为发展趋势,数据中心散热与能耗压力剧增。曙光以全栈液冷技术,将曙光液冷存储、曙光液冷计算子系统与曙光自研液冷IB交换机深度融合、协同联动,构建起覆盖计算、存储与网络的全栈液冷体系,以更高散热效率、更优稳定性,支撑高密度算力持续稳定运行,真正实现“全组件液冷覆盖、全链路协同优化”。
目前,曙光分布式存储已在国家超大规模算力平台中得到验证。在国家超算互联网核心节点部署运行的3套scaleX万卡超集群,可提供超过3万卡国产AI算力。其中,存储、计算与高速网络协同运行,显著提升整体算力利用效率,为国产智算基础设施规模化应用提供了宝贵实践。
随着AI应用不断深入,数据正成为算力体系中最关键的资源之一。以“存算传强协同”为核心的新型架构,也将为未来智算中心构建更加高效、稳定的数据基础。
相关文章
- 中科曙光scaleFabric首发:中国高端RDMA迈入自研时代
- 中科曙光与南航签约,共建千万级国产超智融合平台
- 瑞斯康达、中科曙光战略合作国产化智算中心和车路云联合解决方案
- 10月24日,中科曙光高端计算产品参展2024中国计算机大会
- AI落地加速度 中科曙光分享两大领域应用成果
- 点燃新“智”生产力引擎 中科曙光亮相WAIC2024
- 中科曙光新“智”生产力引擎登陆AI魔盒
- 游族网络与人民创投、中科曙光共同发起“新质生产力数字化创新联盟”
- 中科曙光算力生态建设,加快新质生产力发展
- 中科曙光与贵州师范大学签约,共建智能计算联合实验室
- 中科曙光参建国内首个信息技术领域产教融合共同体
- 亚信科技、中科曙光达成战略合作,“软硬”协同赋能数智转型!
- 竹间智能、中科曙光和智谱AI达成战略合作,“加速”通用人工智能在企业落地的到来!
- 统信软件与中科曙光战略合作,共建计算产业新生态
- 中科曙光十三年助力成都建设云上城市
- 中科曙光×百度飞桨,以算力助跑开发者同台竞技
人工智能企业
更多>>人工智能硬件
更多>>人工智能产业
更多>>人工智能技术
更多>>- 云知声Unisound U1-OCR大模型发布!首个工业级文档智能基础大模型,开启OCR 3.0时代
- 基石智算上线 MiniMax M2.5,超强编程与智能体工具调用能力
- 昇腾原生支持,科学多模态大模型Intern-S1-Pro正式发布并开源
- 百度千帆深度研究Agent登顶权威评测榜单DeepResearch Bench
- 在MoltBot/ClawdBot,火山方舟模型服务助力开发者畅享模型自由
- 教程 | OpenCode调用基石智算大模型,AI 编程效率翻倍
- 全国首个!上海上线规划资源AI大模型,商汤大装置让城市治理“更聪明”
- 昇思人工智能框架峰会 | 昇思MindSpore MoE模型性能优化方案,提升训练性能15%+









