更快更好的实时AI,英伟达TensorRT 8让时延与精度不纠结
2021-07-20 21:34:13AI云资讯835
性能精度均提升2倍
一直以来,英伟达在AI领域的布局都不止于硬件,TensorRT就是重要佐证之一,作为用于高性能深度学习推理的SDK。此SDK包含深度学习推理优化器和运行时环境,可为深度学习推理应用提供低延迟和高吞吐量。
通过TensorRT,开发者可将TensorFlow、Pytorch等训练好的框架模型,通过优化后良好的运行在英伟达的GPU上。在2019年发布的NVIDIA TensorRT 7已经为智能的AI人际交互打开了大门,可实现与语音代理、聊天机器人和推荐引擎等应用的实时互动。
TensorRT 7配合A100 GPU可实现在2.5毫秒内运行BERT-Large,此次新发布的TensorRT 8将时间缩减至1.2毫秒。作为目前最广为采用的基于transformer的模型之一,意味着理论上当用户在使用如实时语音翻译这样的功能时,TensorRT 8的处理延迟时间可降至1.2毫秒。
TensorRT 8相比TensorRT 7有着两倍性能提升的同时,精度也同样提升2倍。TensorRT 8在两方面实现了AI推理上的突破,一方面提升了对于英伟达Ampere架构GPU的稀疏性,在提升效率的同时还能减少开发者加速神经网络时的计算操作。另一方面是量化感知训练,开发者能够使用训练好的模型,以INT8精度运行推理,在这一过程中不会损失精度。
这就意味着,企业可以将模型扩大1-2倍,实现精度的大幅提升,让自身的实时AI应用变得又快又好。
为多领域带来更快更好的AI能力
当前,TensorRT的生态影响力正在快速增长,2020年的开发者人数相比2019年就实现了3倍的增长,达到35万人,下载量已经达到近250万次,共有从边缘到云的多个领域的共27500家公司加入到该生态之中。其中包括如电信运营商Verizon,也有国内的知名互联网公司阿里、腾讯、字节跳动等。
TensorRT 8的发布无疑将会让搜索、购物推荐、语音翻译、语音转文字这样的AI应用能够实现更快更好。Hugging Face就正在与英伟达开展密切合作,作为大规模AI服务提供商,Hugging Face加速推理API能够为基于NVIDIA GPU的transformer模型提供高达100倍的速度提升,通过TensorRT 8,Hugging Face在BERT上实现了1毫秒的推理延迟,为助力实现大规模文本分析、神经搜索和对话式应用的AI服务提供加速度。
据悉,TensorRT目前还应用在了临床医疗领域,GE医疗就通过TensorRT来助力加速超声波计算机视觉应用,这是一款早期检测疾病的关键工具。TensorRT的实时推理能力提高了视图检测算法的性能,缩短了产品上市时间。实际工作中可让扫描仪在进行自动心脏视图检测时更高效,心脏视图识别算法会选择合适的图像来分析心壁运动。
TensorRT 8无疑将让反应更快更聪明的客服机器人、实时翻译更迅速的应用变得可以翘首以待,也许能够随时接话茬的将不止是调皮的学生,机器人也可以做到。人与人之间的交流,语音上的牵绊变得更低,翻译可以同语音实时同步,即时记录成文字也不成问题,准确性也十分不错。更快更好的实时AI正在到来。
相关文章
- 英伟达“缺电大会”背后,被忽视的AI算力产业链新机
- 英伟达在AI图形处理器上部署训练OpenAI的GPT-5.2,为人工智能产业提速
- 同步英伟达技术路线,维谛技术(Vertiv)如何卡位800V直流第一阵营
- 算力帝国的双重博弈:解码OpenAI在英伟达与AMD之间的16GW战略布局
- 英伟达CEO黄仁勋表示《终结者》式情景或不会发生,但人工智能终将主导人类思维
- 英伟达年度GTC大会将于2026年3月15日在圣何塞举行 黄仁勋将阐释新一代人工智能基础设施蓝图
- 2025年第三季度AMD与英特尔独显市场份额增长,但英伟达仍以92%占主导地位
- 英伟达AI工厂浪潮下,九科信息bit-Agent交出中国方案
- 英伟达市值已从4万亿美元跨越到5万亿,仅用时113天
- 高通宣布推出人工智能芯片AI200和AI250,挑战英伟达
- 深度解读英伟达800VDC架构,英诺赛科等氮化镓企业迎来大规模爆发时刻
- 英伟达人工智能芯片迎来太空首秀,AI初创公司Starcloud计划在太空建造数据中心
- 英伟达AI服务器8年来能耗飙升了100 倍,世界还能否满足人工智能不断增长的能源需求
- OpenAI与博通合作生产自研AI芯片,英伟达独占市场的局面将逐步打破
- 英伟达开源生成式AI面部动画模型Audio2Face
- 英伟达与OpenAI达成合作,投资1000亿美元建10吉瓦AI数据中心









