源2.0-M32大模型发布量化版 运行显存仅需23GB 性能可媲美LLaMA3
2024-08-26 17:15:26爱云资讯153052
源2.0-M32量化版是"源"大模型团队为进一步提高模算效率,降低大模型部署运行的计算资源要求而推出的版本,通过采用领先的量化技术,将原模型精度量化至int4和int8级别,并保持模型性能基本不变。源2.0-M32量化版提高了模型部署加载速度和多线程推理效率,在不同硬件和软件环境中均能高效运行,降低了模型移植和部署门槛,让用户使用更少的计算资源,就能获取源2.0-M32大模型的强大能力。
源2.0-M32大模型是浪潮信息"源2.0"系列大模型的最新版本,其创新性地提出和采用了"基于注意力机制的门控网络"技术,构建包含32个专家(Expert)的混合专家模型(MoE),模型运行时激活参数为37亿,在业界主流基准评测中性能全面对标700亿参数的LLaMA3开源大模型,大幅提升了模型算力效率。
模型量化(Model Quantization)是优化大模型推理的一种主流技术,它显著减少了模型的内存占用和计算资源消耗,从而加速推理过程。然而,模型量化可能会影响模型的性能。如何在压缩模型的同时维持其精度,是量化技术面临的核心挑战。
源2.0-M32大模型研发团队深入分析当前主流的量化方案,综合评估模型压缩效果和精度损失表现,最终采用了GPTQ量化方法,并采用AutoGPTQ作为量化框架。为了确保模型精度最大化,一方面定制化适配了适合源2.0-M32结构的算子,提高了模型的部署加载速度和多线程推理效率,实现高并发推理;另一方面对需要量化的中间层(inter_layers)进行了严格评估和筛选,确定了最佳的量化层。从而成功将模型精度量化至int4和int8级别,在模型精度几乎无损的前提下,提升模型压缩效果、增加推理吞吐量和降低计算成本,使其更易于部署到移动设备和边缘设备上。
评测结果显示,源2.0-M32量化版在多个业界主流的评测任务中性能表现突出,特别是在MATH(数学竞赛)、ARC-C(科学推理)任务中,比肩拥有700亿参数的LLaMA3大模型。
总之,源2.0-M32大模型量化版在保持推理性能的前提下,显著降低了计算资源消耗和内存占用,其采用的GPTQ量化方法通过精细调整,成功将模型适配至int4和int8精度级别。通过定制化算子优化,源2.0-M32量化版实现了模型结构的深度适配和性能的显著提升,确保在不同硬件和软件环境中均能高效运行。未来,随着量化技术的进一步优化和应用场景的拓展,源2.0-M32量化版有望在移动设备和边缘计算等领域发挥更广泛的作用,为用户提供更高效的智能服务。
相关文章
- 顶尖大模型厂商齐聚2025 TUYA全球开发者大会,共探AI如何重塑行业生态
- 海信重磅发布“云信·通途交通大模型”: 以AI之力,解锁智能交通无限可能
- 大模型用于招采评审,这样解决“AI幻觉”问题!
- AUDI携手Momenta联合打造行业首个 “德系电动豪华标准+飞轮大模型” 智能辅助驾驶方案
- 华为开发者大会 2025 发布邀请函,盘古大模型、昇腾AI云服务新进展即将公布
- 凯迪拉克VISTIQ亚洲首秀,搭载Momenta飞轮大模型定义豪华纯电智能出行
- 大模型赋能智慧交通,宇视携30+创新产品方案亮相武汉交博会
- 2025上海车展 | 讯飞星火大模型“朋友圈”持续扩大,智能座舱、智慧声场引领汽车交互新体验
- 腾讯智慧出行技术开放日:升级全栈AI能力,助力汽车产业大模型应用
- 罗盘大模型应用开发平台Compass Copilot助力企业快速搭建大模型应用
- 全国首个“AI大模型+智能体”智能查号系统,亚信科技携手天津联通打造
- 腾讯云李力:构建稳定安全的基础设施,助力大模型应用落地
- 中国电子商会大模型应用产业专业委员会正式成立 构建大模型落地“最后一公里“枢纽
- UU跑腿全面接入MCP大模型上下文协议 开启智能服务生态新纪元
- 腾讯云大模型知识引擎已率先接入MCP!拓展AI应用边界
- 腾讯云王麒:大模型+知识库,是企业落地AI的最佳路径