自定义AI加速走势高涨 将引起更加广泛的关注
2020-03-18 12:22:22爱云资讯813
自定义AI加速走势高涨。在云计算领域,阿里巴巴继亚马逊、谷歌之后,推出了自己的定制加速器。Facebook也参与其中,微软在Graphcore中持有大量股份。英特尔(Intel)和Mobileye在汽车领域拥有强大的边缘人工智能(AI),而无线基础设施开发商正在为5G的小电池和基站增加AI功能。所有这些应用程序都依赖于大量灵活性和对未来的检验,以便在快速发展的环境中获得长期的相关性。
但是有许多应用程序,对于它们来说,功率、成本或透明的使用模型是更重要的度量标准。一个农业监视器在一个偏僻的地方,一个微波语音控制器,交通传感器分布在一个大城市。对于这些问题,一个通用的解决方案,甚至一个通用的AI解决方案,都可能是多余的。所以,一个特定的应用程序的AI功能将会更加引人注目。
在人工智能时代之前,你会立刻想到一个硬件加速器——它可以做任何它必须做的事情,但比在CPU上运行一个软件要快得多。这就是人工智能加速器的作用。它可能仍然是以软件驱动的,但与通用CPU方式不同。软件是在大型平台(如TensorFlow或Torch)上用Python开发的,然后通过多个步骤编译到目标加速器上。
这就是神奇之处。只要加速器保持在神经网络架构的一般范围内,它就可以像你希望的那样狂野。它可以支持多个卷积引擎,每个引擎又由SRAM作为一个整体来支持,同时还支持本地内存,以优化对操作的优先顺序的访问。
它可能支持专业功能池等常用操作。为了提高速度和性能,它通常会在不同的推理阶段支持不同的字宽,并在处理稀疏数组时支持专门的优化。这两个领域都是神经网络架构的创新热点,一些架构师甚至尝试使用单比特权值——如果一个权值只能是1或0,那么你就不需要在卷积和稀疏性增加中进行乘法运算了!
所有这些的挑战在于,当你想要致力于最终架构时,你会发现有太多的旋钮,以至于很难知道从哪里开始,或者你是否真正探索了全部的可能性空间。更加复杂的是,你需要在大范围的大型测试用例(大图像、语音样本等等)上测试和描述。
用C语言而不是RTL来运行大部分测试是常识,因为它比RTL运行速度快几个数量级,而且比RTL更容易调优。此外,神经网络算法可以通过高级合成(HLS)很好地映射,因此你的C模型可以不仅仅是一个模型,它还可以是生成RTL。你可以探索你正在考虑的选择的能力、性能和区域含义——多个卷积处理器、本地内存、字宽、广播更新。所有这些都具有快速的周转时间,允许你更充分地探索可能的优化范围。
相关文章
- 亿道数码携骁龙AI PC矩阵亮相高通科技日,定义移动办公轻时代
- 直击WAIC 2025 | 浩鲸科技联合蚂蚁数科发起“金融智能体应用联创联盟”
- 多模态AI融入日常交互 用三星Galaxy手机搭建效率工作流
- 引领智能运维!全新FortiAIOps 3.0重新定义IT运营
- 得瑞领新闪耀2025全球闪存峰会:D8000系列斩获创新大奖,强势赋能AI时代数据基石
- WAIC 2025 | SHIXP将与PPIO共建分布式智算枢纽平台
- 2025 WAIC落幕,深谋科技以技术与落地破局具身智能赛道
- AI赋能基层“智治” 湖北移动打造数字乡村治理新样本
- AI重磅奖项揭晓!用友大易荣膺人力资源服务业AI25强及思旗奖
- 中国最大黑客松AdventureX 2025杭州启幕,涂鸦赋能青年开发者引爆Physical AI变革
- WAIC2025:澳鹏发布新一代技术平台矩阵 助力大模型垂直应用落地
- 共建AI PC企业服务生态,京东政企业务携手高通打造骁龙AI PC生态科技日
- 2025 WAIC“智算技术创新与行业实践” 论坛圆满落幕 共绘智算生态新蓝图
- 四维图新亮相2025世界智能汽车大会:以AI新基建与数据闭环赋能智驾新范式
- 星辰聚智·才启未来:2025世界人工智能大会中国电信发布系列前沿能力及AI产品
- 神州云动CRM亮相2025浪潮AI向新 数字企业创新大会