芯动力神速适配DeepSeek-R1大模型,AI芯片设计迈入“快车道”!
2025-02-07 16:36:39爱云资讯17626
近期,国产大模型 DeepSeek-R1横空出世,迅速成为AI领域的焦点。芯动力在24小时内完成了与DeepSeek-R1大模型的适配。
DeepSeek-R1是幻方量化旗下大模型公司DeepSeek研发的系列推理模型,自诞生起就备受瞩目。它采用强化学习训练,推理时包含大量反思和验证,思维链长度可达数万字。在数学、代码以及复杂逻辑推理任务上,DeepSeek-R1有着出色的表现,能取得媲美OpenAI o1的推理效果,还能为用户展现完整的思考过程 。在1月24日的Arena上,DeepSeek-R1 基准测试已经升至全类别大模型第三,其中在风格控制类模型(StyleCtrl)分类中与OpenAI o1并列第一。
随着技术的发展,大模型训练成本呈下降趋势,商业化门槛也随之降低。大模型作为技术底座,为各行业应用开拓了无限可能,这也让边缘大模型逐渐成为主流方向。而芯动力所设计的芯片恰好契合这一开发应用需求。
芯动力此次能够在如此短的时间内完成与DeepSeek-R1模型适配,AzureBlade K340L M.2加速卡是关键。这是一款高性能AI加速卡,实现了高性能、低功耗、小体积的完美结合。这款加速卡内嵌AE7100芯片,尺寸仅为22mm×80mm,大约半张名片大小,却实现了高达32TOPs的算力,并且功耗能达到8w以下。其采用标准M.2接口,便于集成到各种设备中,成为业界最小、最薄的GPU之一。该加速卡兼容CUDA和ONNX,满足各类AI应用需求,其高算力和内存带宽确保数据高效稳定处理与传输。目前,这款加速卡已经可以支撑大模型在AI PC等设备上运行,并适配了DeepSeek-R1、Llama 3-8B、Stable Diffusion、通义千问等开源模型。除此之外,该加速卡在工业自动化、泛安防、内容过滤、医疗影像及信号处理等领域也得到了广泛的应用。
AzureBlade K340L加速卡性能卓越、适用性广,有望在大模型端侧设备部署中发挥关键作用,助力 AI 技术在更多场景落地,推动 AI 技术发展与应用,开启 AI 应用新篇章。未来,芯动力团队还将在 AI 及其他行业持续创新突破,为生活和社会带来更多变革。
相关文章
- 北大杨仝团队发布FairyR1模型:5%参数量数学和代码能力超越满血DeepSeek
- 中文大模型幻觉测评:豆包大模型准确率全球第一,超越DeepSeek-R1、Gemini-2.5、GPT-4o
- 2025年DeepSeek关键词排名优化服务商推荐:五大机构助力品牌抢占AI流量高地
- 腾讯云智算全新升级,相关技术能力刚获DeepSeek公开点赞
- 2025年DeepSeek关键词排名优化服务商推荐指南:助力企业实现精准营销与高效增长
- 易联众医信助力泉州市中医院DeepSeek项目入选泉州十佳数字赋能案例
- DeepSeek+物流行业,AI大模型破解五大场景效能困局
- IBM专家观点:假如DeepSeek们使用了IBM AI存储
- 从会议记录到战略智库:讯飞听见AI纪要—DeepSeek模式上线!
- 智能协作新纪元,华天动力协同OA系统的HR管理平台深度融合 DeepSeek的四大应用场景
- 联想官方零售发力AI普惠!来酷科技推出DeepSeek本地部署服务
- 昇腾+DeepSeek,打造AI应用“江苏样本”
- R&T瑞尔特全球首台搭载Deepseek的AI健康马桶问世,引领卫浴行业新纪元
- 数字福州携手昇腾、DeepSeek,共绘 AI 产业发展新蓝图
- 首发DeepSeek R1一键本地部署:来酷科技引领AI普惠革命
- 腾讯云TVP走进三一集团,揭秘 AI+DeepSeek 工业智造新未来