腾讯云小微&腾讯云智能钛联合团队获Interspeech 2020口音

2020-10-27 10:55:55爱云资讯

近日,语音研究领域顶级会议Interspeech2020召开,在本次大会的口音英语语音识别挑战赛上,腾讯云小微&腾讯云智能钛联合团队在口音英语语音识别赛道中以大幅领先的成绩获得冠军。

Interspeech是由国际语音通信协会ISCA组织的语音研究领域的顶级会议之一。本次大会上提出,在全球范围内,标准英文ASR系统已经具备较高的识别正确率,但口音英语识别仍然是具有挑战性的课题,也是技术应用中亟待克服的最大挑战。为此,大会特别设置了口音英语语音识别挑战赛,正是为了促进行业技术交流,展示最新技术突破。

在本次口音英语语音识别挑战赛中,向参赛者开放了来自不同国家的共八种口音英文数据,覆盖了各种发音特点、口音轻重等典型难点。腾讯云小微&腾讯云智能钛联合团队的技术方案,以识别错误率最低且优于第二名10%的好成绩获得赛道第一。

采用探索性语音识别方案,腾讯联合团队展示技术研究实力

口音语音识别难点主要源于口音本身的不一致性、语速与音素发音的多变性难以建模等问题。另外,带有口音标注的语音数据的短缺也严重限制了相关研究的开展。作为在业内颇具代表性的AI语音技术团队,腾讯云小微&腾讯云智能钛联合团队在此次比赛中,突破性的选择了基于Wav2Vector无监督预训练+CTC Fine-tuning的Wav2Vec方案。该方案的原型是Facebook公司在今年首次提出的。在本次比赛前,几乎没有其他关于Wav2Vector的成功应用。因此,此次比赛是腾讯云小微团队在语音识别方案上的全新探索。

在这个方案中,腾讯团队首先使用Librispeech无监督预训练的Wav2Vector模型进行模型初始化,之后在预训练模型上添加一层输出层,采用英文字母作为建模单元,并使用CTC损失函数进行训练。由于模型采用的是字母建模,识别结果随机性较大,容易引入过多错误。因此,团队引入了语言模型进行约束,大幅提高了识别性能。经实验发现,解码时引入N元文法(N-Gram)语言模型,可以下降30%的识别错误率。同时,进一步采用基于Transformer的语言模型对解码的候选结果进行重打分,错误率可以下降7%。

大规模分布式训练加速,腾讯云智能钛为AI研究与应用提供极致的平台支撑

此次比赛由云小微团队与智能钛团队合力完成,是智能钛平台继2020.8.21与腾讯机智团队一道打破128卡训练ImageNet的业界新记录后,在大规模分布式训练加速场景上的又一个成功案例。智能钛平台整合了腾讯内部各业务团队的丰富经验,针对大规模分布式训练加速场景,在单机性能、多机扩展、AutoML等三个方面进行了深度优化,可以有效地支撑各AI团队的研究与应用。具体如下:

极致的单机性能: 智能钛团队协同内部的开源团队,推出了深度定制版TensorFlow(TI-TensorFlow),在高维动态稀疏特征支持、编译优化、自动混合精度训练等特性上对社区版TensorFlow进行了深度优化,大大提升了模型单机性能。

线性多机扩展: 智能钛TI-Horovod在开源框架的基础上,结合腾讯云的软硬件环境进行了深度优化。通过自研的自适应梯度融合、2D AllReduce和多流通信等技术,实现了近千卡的线性扩展加速。通过首创的层级Topk技术,突破了弱网环境下的带宽瓶颈。

高效AutoML: 针对深度学习训练规模大、超参数范围广和人工调参效率低的问题,智能钛TI-AutoML内置了腾讯自研的高效自动化搜索技术,充分利用腾讯云的海量算力,让算法工程师从繁琐的手工调参中解放出来。

语音技术持续突破,加速各行业落地应用

在AI语音助手的实际应用中,如何提高口音识别成功率,是业内一直在关注和探索的问题。在中英文翻译方面,腾讯云小微输出的技术方案,旨在提高英语语音识别的准确率,进而提升翻译效率和准确性。已经在腾讯翻译君、腾讯同传等各行业方案中广泛应用。

除了中英文翻译领域,腾讯云小微AI助手,已经在智能网联汽车、智慧文旅、智慧教育、智能家居等多行业领域落地,服务广泛的用户群体。口音语音识别的突破,对于中文语音助手的技术提升也有很大的价值。比如在车载语音助手的应用上,一款汽车产品需要满足全国范围不同区域、不同口音用户的交互需求。比如车载语音助手上,由于用户来自全国不同区域,用户的口音将直接影响识别的准确性,特别是对于口音较重的用户。本次挑战赛中,腾讯云小微参赛团队探索端到的AI训练方法,为日后的方案应用落地和迭代提供了更有价值的技术助力,将推动AI语音助手方案为用户带来更好的服务体验。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023