Supermicro 采用新一代系统和机架架构以扩大人工智能优化产品组合

2024-03-21 09:42:19爱云资讯

- Supermicro采用由全新NVIDIA Blackwell架构解决方案组成的新一代系统和机架架构以扩大人工智能优化产品组合

适用于大规模CSP和NSP的强大节能解决方案将结合全方位下一代NVIDIA GPU和CPU,以及NVIDIA Quantum X800平台和NVIDIA AI Enterprise 5.0

加利福尼亚州圣何塞2024年3月21日 -- 在2024NVIDIA GPU大会上,人工智能、云、存储和5G/边缘的整体IT解决方案提供商Supermicro, Inc.(纳斯达克股票代码:SMCI宣布推出新的大规模生成式人工智能系统,该系统采用NVIDIA 的下一代数据中心产品,包括最新的NVIDIA GB200 Grace™ Blackwell Superchip、NVIDIA B200 Tensor Core 和B100 Tensor Core GPU。Supermicro 正在优化其目前的 NVIDIA HGX™ H100/H200 8-GPU 系统,以便支持NVIDIA HGX™ B100 8-GPU 和B200,从而缩短交付时间。此外,Supermicro 还将通过NVIDIA GB200(包括具有72 个NVIDIA Blackwell GPU 的完整机架级解决方案的NVIDIA GB200 NVL72)新产品,进一步加强其庞大的NVIDIA MGX™ 系统产品系列。Supermicro 还在其产品阵容中增加了新系统,包括4U NVIDIA HGX B200 8-GPU 液冷系统。


Supermicro 总裁兼首席执行官梁见后表示:"我们专注于人工智能的构建块架构和机架级整体IT,有助于我们设计下一代系统,以满足基于NVIDIA Blackwell 架构GPU 的更高要求,例如采用NVIDIA HGX B200 8-GPU 的新4U 液冷系统以及NVIDIA GB200 NVL72 的完全集成直达芯片液冷机架。这些新产品的开发乃基于 Supermicro 和NVIDIA 久经考验的HGX 和MGX 系统架构,并针对NVIDIA Blackwell GPU 的新功能进行了优化。Supermicro 拥有将1kW GPU 整合到各种风冷和液冷系统中的专业知识,以及每月5,000 个机架的机架规模生产能力,我们预计将率先部署采用NVIDIA Blackwell GPU 的全机架集群,并在市场上推出。"

Supermicro 直达芯片的液体冷却技术将允许增加最新GPU 的散热设计功率(TDP),并充分发挥NVIDIA Blackwell GPU 的潜力。Supermicro 搭载NVIDIA Blackwell 的HGX 和MGX 系统是未来人工智能基础设施的构建块,将为数万亿参数的人工智能训练和实时人工智能推理带来突破性的性能。

一系列经过GPU 优化的 Supermicro 系统将为NVIDIA Blackwell B200 和B100 Tensor Core GPU 做好准备,并针对最新的NVIDIA AI Enterprise 软件进行验证,该软件增加了对NVIDIA NIM推理微服务的支持。Supermicro 系统包括:

NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系统5U/4U PCIe GPU 系统,多达 10 个 GPUSuperBlade® 配备多达 20 个用于 8U 扩展柜的 B100 GPU,多达 10 个用于6U 扩展柜的B100 GPU2U Hyper 配备多达 3 个 B100 GPUSupermicro 2U x86 MGX 系统配备多达 4 个 B100 GPU

在训练大规模基础人工智能模型方面,Supermicro 准备率先发布首次问世的NVIDIA HGX B200 8-GPU 和HGX B100 8-GPU 系统。这些系统采用8 个NVIDIA Blackwell GPU,通过第五代NVIDIA®NVLink®实现1.8TB/s 的高速互连,性能是上一代的两倍,总高带宽内存为1.5TB,与一代NVIDIA Hopper 架构相比,GPT-Moe-1.8T 型号等LLM 的训练结果将快3 倍。这些系统具有先进的网络功能,可扩展到集群,支持NVIDIA Quantum-2 InfiniBand 和NVIDIA Spectrum-X 以太网选项,GPU 与NIC 的比例为1:1。

NVIDIA GPU 产品管理副总裁Kaustubh Sanghani 表示:"Supermicro 将继续向市场推出种类繁多的加速计算平台服务器,这些服务器专为人工智能训练和推理而调整,可以满足当今市场的任何需求。我们将与 Supermicro 密切合作,为客户提供最优化的解决方案。"

对于要求最苛刻的LLM 推理工作负载,Supermicro 发布了几款采用NVIDIA GB200 Grace Blackwell Superchip 构建的新型MGX 系统,该系统将NVIDIA Grace CPU 和两个NVIDIA Blackwell GPU 相结合。与NVIDIA HGX H100 相比,Supermicro 配备了GB200 系统的NVIDIA MGX 将为人工智能推理性能带来巨大飞跃,速度高达30 倍。Supermicro 和NVIDIA 开发了采用NVIDIA GB200 NVL72 的机架级解决方案,将36 个Grace CPU 和72 个Blackwell GPU 连接在一个机架中。所有72 个GPU 都与第五代NVIDIA NVLink 互连,以实现1.8TB/s 的GPU 与GPU 的通信。此外,对于推理工作负载,Supermicro 宣布推出 ARS-221GL-NHIR,这是一款基于GH200 系列产品的2U 服务器,它将通过900Gb/s 的高速互连连接两台GH200 服务器。欢迎前往GPU 大会的Supermicro 展位了解更多信息。

Supermicro 系统还将支持即将推出的NVIDIA Quantum-X800 InfiniBand 平台,包括NVIDIA Quantum-X800 QM3400 交换机和 SuperNIC800,以及由NVIDIA Spectrum-X800 SN5600 交换机和SuperNIC800 组成的NVIDIA Spectrum-X800 以太网平台。NVIDIA Quantum-X800 和Spectrum-X800 针对NVIDIA Blackwell 架构进行了优化,将为人工智能基础设施提供最高水平的网络性能。

Supermicro即将推出的采用NVIDIA B200GB200的系统阵容包括:

Supermicro 的 NVIDIA HGX B200 8 GPU 风冷和液冷系统,可实现最高的生成式人工智能训练性能。该系统采用 8 个 NVIDIA Blackwell GPU,通过第五代 NVLink 连接,具有 1.5TB 高带宽内存(高达 60TB/s),可加快人工智能训练工作负载。Supermicro 最畅销的人工智能训练系统,配备 NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系统,将支持 NVIDIA 即将推出的HGX B100 8-GPU。Supermicro 机架级解决方案,以 GB200 Superchip 系统作为服务器节点,每个节点 2 个 Grace CPU 和 4 个 NVIDIA Blackwell GPU。Supermicro 直达芯片的液体冷却可最大限度地增加密度,72 个 GB200 192GB GPU(每个 GPU 1200W TDP)全部装在单个 44U ORV3 机架中。

Supermicro将参与2024GPU大会

Supermicro 将于3 月18 日至21 日在圣何塞会议中心举行的2024年NVIDIA GPU 大会活动上展示用于人工智能的完整GPU 系统产品组合。参观 Supermicro 的#1016 号展位,了解为各种人工智能应用打造的解决方案,包括训练生成式人工智能模型、人工智能推理和边缘人工智能。Supermicro 还将展示两种机架级解决方案,包括一个概念机架,其系统采用即将推出的NVIDIA GB200,该机架具有72 个与第五代NVLink 互连的液冷GPU。

将在2024 年GPU 大会上展出的 Supermicro 解决方案包括:

Supermicro 液冷人工智能训练机架,采用 8 个 4U 8-GPU 系统,配备 NVIDIA HGX H200 8-GPU带有液冷式 MGX 系统节点的 Supermicro 概念 ORV3 机架,共涵盖通过第五代 NVLink 连接的 72 个 NVIDIA GB200 超级芯片Supermicro MGX 系统,包括 1U 液冷的 NVIDIA GH200Grace Hopper超级芯片系统用于在边缘提供 GPU 计算的 Supermicro 短深度 Hyper-E 系统用于高性能人工智能数据管道的 Supermicro Petascale 全闪存存储系统。
相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023