谷歌人工智能技术 可将语音识别错误率降低29%
2019-02-26 14:49:59爱云资讯1383
近期,语音识别技术发展迅猛,像EdgeSpeechNet等最先进的模型能够达到97%的准确率,但即使是最好的系统偶尔也会被生僻字难倒。
为了解决这个问题,谷歌和加利福尼亚大学的科学家提出了一种方法,可以利用纯文本数据训练拼写校正模型。在预印本服务器Arxiv.org上发表的一篇论文《用于端到端语音识别的拼写校正模型》中,他们表示,在使用800字、960小时语言建模LibriSpeech数据集的实验中,他们的技术显示,相对于基准,单词错误率(WER)改善了18.6%。在某些情况下,它甚至可以减少29%的错误。
语音识别
他们写道:“目标是将一个接受了文本数据培训的模块纳入端到端框架,纠正系统所犯的错误,具体来说,我们的调查使用了不成对的数据,利用文本到语音(TTS)系统生成音频信号,这个过程类似于机器翻译中的反向翻译。”
正如论文作者所解释的那样,大多数自动语音识别(ASR)系统要训练三个组成部分:一个学习音频信号与构成语音的语言单位之间关系的声学模型,一个为单词序列分配概率的语言模型,以及一种用于对声学帧和识别的符号进行匹配的机制。所有这三者都使用一个神经网络和转录的音频-文本对,因此,当语言模型遇到语料库中不经常出现的单词时,通常会出现性能下降。
然后,研究人员开始将上述拼写校正模型纳入ASR框架,一种将输入和输出句子解码为“词组”的子词单元的模型,他们使用纯文本数据,并利用文本到语音(TTS)系统生成的音频信号来训练LAS语音识别器,这是2017年Google Brain研究人员首次描述的端到端模型,然后创建一组TTS对,最后,由他们来“教导”拼写纠正器纠正识别器的错误。
为了验证这个模型,研究人员训练了一个语言模型,生成一个TTS数据集来训练LAS模型,并产生了错误假设以训练拼写校正模型,其中包含了来自LibriSpeech数据集的4000万个文本序列。他们发现,通过纠正来自LAS的条目,语音校正模型生成的扩展输出的错误率“显著”降低了。相关文章
- 苹果全力研发增强现实AR眼镜,谷歌/微美全息夯实领先优势开启空间交互时代!
- OpenAI拟从谷歌收购Chrome
- 谷歌最新发布Agent2Agent 协议 (A2A)
- 谷歌地图推出新工具,助力城市分析基础设施与交通状况
- 亚马逊首款量子计算芯片Ocelot亮相,微软/谷歌/微美全息竞逐加速量子行业成熟
- 阿里开源模型万相2.1引爆视频赛道!谷歌/微美全息加入全模态AI开源新时代!
- 谷歌公布2025年I/O开发者大会日期,定档5月20日
- 三星与谷歌联手开发AR眼镜,Meta/微美全息硬件先行共绘XR未来蓝图
- 谷歌量子芯片重磅登场掀热潮,微美全息持续打造量子“芯”质生产力
- Meta携手卡梅隆共铸3D沉浸世界,谷歌/微美全息创新引领全息虚拟新纪元
- 抢先OpenAI Sora谷歌新推Veo模型,亚马逊/微美全息加入AI视频生成竞赛引关注
- 谷歌DeepMind发布Gemini 2.0人工智能模型
- 2025年AI Agent商用蓄势待发,微软/谷歌/微美全息纷纷入局重塑AI全产业链
- 谷歌发布突破性量子计算芯片Willow:五分钟完成超算10的25次方年的计算
- 预报天气更快、更准确!谷歌发布AI天气预测模型GenCast
- 谷歌文生视频模型Veo私人预览版在Vertex AI平台上线