生成式AI端云融合,联发科通过行业伙伴构筑GAI终端侧生态

2023-08-27 07:34:32爱云资讯

目前,生成式AI(GAI)正以破纪录的速度持续增长,成为科技和产业变革新时代的关键动力,并为终端用户提供丰富多样的定制化内容开辟新的途径。

不久以前,联发科宣布联合百度发起飞桨和文心大模型硬件生态共创计划,共同推进联发科硬件平台与飞桨和文心大模型适配。近期,联发科还宣布运用Meta LIama 2大语言模型和联发科先进的AI处理器(APU)以及完整的AI开发平台(NeuroPilot),建立完整的终端侧AI计算生态,赋能终端设备生成式AI应用。

看的出来,联发科正在积极投入到AI技术与生态建设中,推动“端云融合”及终端侧AI技术解决方案,以探索生成式AI市场的更多发展途径和动力,通过与行业伙伴携手,利用AI大模型为终端设备赋能,让更多用户体验到生成式AI的创新体验。

联合百度发起飞桨和文心大模型硬件生态共创计划

不久前,联发科宣布与百度联合发起飞桨和文心大模型硬件生态共创计划,双方将共同推进 联发科硬件平台与飞桨和文心大模型的适配。目前双方正在合作优化文心大模型在终端设备上的执行效果,将实现大模型在终端和云端的协同工作,为用户带来突破性的生成式 AI 应用体验。

作为推动 AI 进一步发展的先进技术,与单纯在云端部署生成式 AI 应用和服务相比,终端侧部署生成式 AI 在节约服务器成本、保护用户信息安全、提升实时性和实现个性化用户体验等方面具备明显优势。双方的合作将支持基于 联发科芯片的智能手机、汽车、智能家居、物联网等终端设备上运行文心大模型,赋能终端设备提供更安全、可靠和差异化的使用体验。

联发科与百度合作已久,双方合作完成了Paddle Lite 轻量化推理引擎基于MediaTek NeuroPilot 人工智能通用软件平台的适配。NeuroPilot是MediaTek为开发者提供的基于本地端侧的AI运算解决方案,它为内建 CPU、GPU 和 APU(独立AI 处理器)等异构运算单元的MediaTek SoC平台提供完整且强大的软件解决方案。

联发科无线通信事业部副总经理李彦辑博士表示:“百度飞桨深度学习平台和文心大模型在AI领域处于领先地位,我们双方将聚焦 AI 大模型在终端侧的部署,为用户提供更安全可靠,更个人化,更低成本的端侧生成式 AI 解决方案,赋予终端设备更强大的 AI 能力。MediaTek携手百度飞桨和文心大模型,通过 AI 端云融合,将为广大开发者和终端用户带来更多令人兴奋的 AI 创新机遇和产品体验。”

运用Meta Llama 2大语言模型赋能终端设备生成式AI应用

近日,联发科宣布利用 Meta 新一代开源大语言模型(LLM)Llama 2 以及联发科先进的 AI 处理器(APU)和完整的 AI 开发平台(NeuroPilot),建立完整的终端侧 AI 计算生态,加速智能手机、物联网、汽车、智能家居和其他边缘设备的 AI 应用开发,为终端设备提供更安全、可靠和差异化的使用体验。

联发科资深副总经理暨无线通信事业部总经理徐敬全博士表示:“生成式 AI 的日益普及是数字化转型的重要趋势之一,我们的愿景是为 Llama 2 的开发者和终端用户提供工具,带来更多令人兴奋的 AI 创新机遇和产品体验。通过与 Meta 的伙伴关系,MediaTek可提供更强大的硬件和软件整体解决方案,为终端设备带来远超以往的功能和体验。”

要在终端设备上充分释放生成式AI的潜力,设备制造商需采用高算力、低功耗的AI处理器(APU),并通过更快、更可靠的网络连接来增强设备的整体算力。如今,每一颗联发科5G智能手机SoC均搭载AI处理器,已广泛执行生成式AI应用成功案例,例如 AI 降噪(AI-NR)、AI 超级分辨率(AI-SR)以及AI运动补偿(AI-MEMC)等。

MediaTek将于年末推出新一代旗舰移动芯片,将采用针对Llama 2模型而优化的软件栈(NeuroPilot),与搭配支持Transformer模型做骨干网络加速的升级版AI处理器(APU),可减少动态随机存取内存(DRAM)的读写消耗和带宽占用,进一步强化大语言模型和生成式AI应用的性能,助力开发者打造令人惊艳的AI应用,加速终端设备AI应用落地发展。

针对生成式AI的技术演进和应用潮流,联发科将保持技术投入, 并携手业内伙伴,共同推动生成式AI在终端侧的布局和发展,加快生成式AI市场的规模化发展,并为智能手机、汽车、智能家居和物联网等终端设备的用户带来令人瞩目的生成式AI。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023