禁令解除72小时:141GB H20 跑满血实测,DeepSeek 性能超预期
2025-07-18 11:20:27爱云资讯1625
2025 年 7 月 15 日,英伟达 CEO 黄仁勋宣布了一个震动 AI 圈的消息:美国政府即日起解除 H20 芯片对华销售禁令,而就在禁令解除后,云工场科技发布详细测试数据--- 8 卡 141GB 显存的 H20 服务器,能流畅运行 671B 参数的满血版非量化 DeepSeek-R1 模型,推理吞吐量突破预期。
硬核实测:141GB H20 跑满血版非量化 DeepSeek 性能全面解析
测试环境配置
一. 测试数据
二. 关键性能测试结果
测试显示:
1.首 token 响应快: 在测试的多个并发量下,首个 Token 的响应时间 (TTFT) 都保持在3秒以内(实测 0.1s - 2.8s),用户体验非常流畅,感觉不到任何延迟。
2.高并发吞吐大: H20 显卡展现出优秀的并发处理能力。在模拟 100 个用户同时提问(并发请求=100)的中高负载场景下:
·处理短问题(输入/输出各 256 tokens),系统总吞吐量高达 约 1124 tokens/s。
·处理典型问题(输入/输出各 1K tokens),总吞吐量稳定在 约 1100 tokens/s。
·处理复杂问题/长对话(输入/输出各 2K tokens),总吞吐量仍能保持 约 1020 tokens/s。
分场景性能趋势:
1.低并发场景 (<10 用户):
·响应极快: TTFT 始终低于 0.9 秒,用户几乎感觉不到等待。
·吞吐未饱和: 系统能力远未被充分利用,吞吐量相对较低(32-208 tokens/s),性能表现轻松自如。
2.中高并发场景 (50-100用户):
·响应依然迅速: TTFT 保持在 1.9 秒 (1K上下文) 到 2.8 秒 (2K上下文),交互体验依然流畅。
·吞吐大幅跃升: 系统资源得到高效利用,总吞吐量急剧上升至 634 - 1124 tokens/s。
·长上下文优势显现: 在相同并发下,处理更长(1K/2K)的上下文通常能获得比短上下文(256)更高的吞吐量(尤其在并发50时最明显),充分体现了 vLLM 对长文本的优化效果。
3.极限场景 (100用户 + 长上下文 2K):
·响应可控: TTFT 为 2.8 秒,交互体验依然流畅。
·吞吐维持高位: 即使在此压力下,系统总吞吐量仍达 1020 tokens/s。
三.测试总结
云工场科技构建了全面的异构计算资源池,涵盖 NVIDIA 全系高性能 GPU(包括 141GB 显存 H20、L20、RTX 4090 等最新型号)、AMD w7900 以及国产算力三巨头(华为昇腾 910B 系列、百度昆仑芯 P800、燧原 S60)等等,可本地部署到就近机房,提供 DeepSeek、文心一言、华为盘古、LLaMA 等开源大模型本地部署。
通过严格的横向性能基准测试,云工场科技验证了不同架构 GPU 在 LLM 推理、计算机视觉等场景的能效比差异,并为客户提供"算力租赁 + 算力智能调度 + 平台化交付"的完整 AI 服务体系,目前已在教育/工业/通信/交通等多领域成功落地,支撑其大模型部署、推理及场景化落地的全流程需求。
相关文章
- 2025年中国deepseek geo推荐发布:deepseek geo第一权威测评榜单揭晓 最新企业服务机构排名出炉
- 工学通与 DeepSeek:AI 领域的专业细分与通用探索
- 百度AI搜索全面接入DeepSeek R1 最新版 进一步强化智能搜索体验
- 青云科技AI算力云大模型服务上线 DeepSeek-R1-0528
- AI营响力:DeepSeek和智能体写短视频脚本,有什么不同?
- 北大杨仝团队发布FairyR1模型:5%参数量数学和代码能力超越满血DeepSeek
- 中文大模型幻觉测评:豆包大模型准确率全球第一,超越DeepSeek-R1、Gemini-2.5、GPT-4o
- 腾讯云智算全新升级,相关技术能力刚获DeepSeek公开点赞
- 易联众医信助力泉州市中医院DeepSeek项目入选泉州十佳数字赋能案例
- DeepSeek+物流行业,AI大模型破解五大场景效能困局
- IBM专家观点:假如DeepSeek们使用了IBM AI存储
- 从会议记录到战略智库:讯飞听见AI纪要—DeepSeek模式上线!
- 智能协作新纪元,华天动力协同OA系统的HR管理平台深度融合 DeepSeek的四大应用场景
- 联想官方零售发力AI普惠!来酷科技推出DeepSeek本地部署服务
- 昇腾+DeepSeek,打造AI应用“江苏样本”
- R&T瑞尔特全球首台搭载Deepseek的AI健康马桶问世,引领卫浴行业新纪元