日前,火山语音团队多篇论文入选Interspeech 2023,内容涵盖短视频语音识别、跨语言音色与风格以及口语流利度评估等多个应用方向的创新突破。 Interspeech作为国际语音通信协会ISCA组织的语音研究领域的顶级会议之一,也被称为全球最大的综合性语音信号处理盛会,受到全球语言领域人士的广泛关注。
(相关资料图)
Interspeech2023活动现场
一般来说,端到端自动语音识别(ASR)框架的限制之一,就是如果训练和测试语句的长度不匹配,其性能可能会受到影响。在该论文中,火山语音团队提出了一种基于即时随机语句串联(RUC)的数据增强方法作为前端数据增强,以减轻短视频ASR任务中训练和测试语句长度不匹配的问题。
具体而言,团队得出这样的创新实践主要来自以下观察:通常人工转录的训练语句在短视频自发语音中要短很多(平均约3秒),相比而言从语音活动检测前端生成的测试语句要长得多(平均约10秒),所以这种不匹配可能会导致性能不佳。
“对此,我们使用了来自15种语言的多类ASR模型进行了实证,这些语言的数据集范围从1,000小时到30,000小时不等。在模型微调阶段,还即时加入采样多条数据后并拼接的数据,相比于没有增强过的数据,此方法在所有语言上平均达到了%的相对词错误率降低。”火山语音团队表示。
测试集上长句的 WER 通过 RUC 训练过后显著下降(蓝色 vs. 红色)
根据实验观察,所提出的RUC方法明显改善了长语句的识别,而短语句的性能则没有下降。通过进一步的分析,团队发现所提出的数据增强方法可以使ASR模型对于长度归一化的变化变得不太敏感,这或许意味着ASR模型对于多样环境更具鲁棒性。总结来说,RUC数据增强方法虽然实操简单,但效果相当显著。
口语的流利程度是评价二语学习者语言能力的重要维度之一。流利的发音主要反映在轻松正常发出语音的同时很少伴随停顿、犹豫或自我纠正等异常现象,因为大多数二语学习者与母语者相比,通常会表现出较慢的语速以及更频繁的停顿。对此火山语音团队提出了一种基于语音和韵律相关的自监督建模方法用于口语流利度打分。
具体来说,在预训练阶段,需要对模型的输入序列特征(声学特征、音素id、音素时长)进行掩码,将掩码后的特征送入模型,利用上下文相关的编码器根据时序信息来还原掩码部分的音素id和音素时长信息,从而模型具有更强大的语音和韵律表征能力。 该方案将序列建模框架中原始时长、音素和声学信息这三种特征进行掩码重构,让机器自动去学习上下文的语音和时长表征,更好用于流利度打分。
这种基于语音和韵律的自监督学习方法超过了领域内其他方法,在内部测试集上机器预测结果和人类专家打分之间相关性达到了,与专家和专家之间的相关性 持平。在开源数据集上,机器预测结果和人类专家打分之间相关性达到了,性能超越过去在该任务上提出的一些自监督方法。 应用场景方面,该方法可被应用于有流利度自动评估的需求场景中,例如口语考试以及各种在线口语练习等。
非母语发音评估的一个基本思想就是量化学习者发音与母语者发音的偏差,因此早期用于发音评测的声学模型通常仅仅使用目的语的数据进行训练,但最近的一些研究开始将非母语语音数据纳入模型训练。将非母语语音纳入二语ASR 与非母语评估或发音错误检测中的目的存在根本区别:前者的目标是尽可能使模型适应非母语数据以达到最优 ASR 性能;后者则需要平衡两个看似相悖的需求,即在非母语语音的较高识别精度以及对非母语发音的发音水平实现客观的评估。
基于此,火山语音团队旨在从两个不同角度,即对齐精度和评估表现,研究非母语语音在发音评估中的贡献,从而设计了不同的数据组合和训练声学模型时的文本转录形式,如上图所示。
上述两个表格分别展现了不同组合的声学模型在对齐精度和评估中的性能。实验结果表明,在声学模型训练期间仅使用带有人工标注的音素序列的非母语数据,可以实现非母语语音的对齐以及发音评估的最高准确度。具体来说,在训练中将一半母语数据和一半非母语数据(人工标注的音素序列)混合可能会稍差,但可以媲美仅使用非母语数据与人工标注的音素序列。
此外,上述这种混合情况在母语数据的发音评估上表现更好。在低资源条件下,与仅使用母语数据进行声学模型训练相比,无论使用哪种文本转录类型,添加10小时的非母语数据都可以显着提高对齐准确性和评估性能,该研究对于语音评估领域数据的运用具有指导性意义。
自动语音识别(ASR)领域的端到端系统已经展示出与混合系统相媲美的性能。作为ASR的附带产物,时间戳在许多应用中都是至关重要的,特别在字幕生成和计算辅助发音训练等场景,本论文旨在优化端到端系统中的帧级分类器来获取时间戳。对此团队引入使用CTC(connectionist temporal classification)损失来训练帧级分类器,并且引入标签先验的信息使得CTC的尖峰现象有所缓解,还将梅尔滤波器与ASR编码器的输出相结合,作为输入特征。
在内部的中文实验上,该方法在单词时间戳200ms准确性上达到了%/%,而传统混合系统仅为%/%。此外,相对于之前的端到端方法,团队在内部的7种语言上取得了%/%的绝对性能提升。通过逐帧的知识蒸馏方法,还进一步提高了单词定时的准确性,尽管此实验仅针对LibriSpeech进行。
这项研究结果表明,端到端语音识别系统中的时间戳性能可以通过引入标签先验和融合不同级别的特征进行有效优化。在内部中文实验上,该方法相较于混合系统和之前的端到端方法,都取得了显著的改进;此外对于多种语言,方法也展现出了明显的优势;通过知识蒸馏方法的应用进一步提高了单词定时的准确性。这些结果不仅对字幕生成和发音训练等应用具有重要意义,还为自动语音识别技术的发展提供了有益的探索方向。
众所周知Code-switch(CS)的主要目标是促进跨不同语言或技术领域的有效交流。CS 需要在一个句子中交替使用两种或多种语言,然而合并来自多种语言的单词或短语可能会导致语音识别的错误和混淆,这使Code-switching语音识别(CSASR) 成为一项更具挑战性的任务。
通常端到端ASR模型由编码器、解码器和对齐机制组成。现有的端到端 CSASR 模型大多只关注优化编码器和解码器结构,很少会探讨对齐机制是否需要进行语种相关的设计,大多数已有工作都是针对中英混场景使用普通话字符和英语子词的混合作为建模单元。通常普通话字符表示普通话中的单个音节,并且声学边界清晰;而英文子词是在不参考任何声学知识的情况下获得的,所以它们的声学边界可能是模糊的。为了在 CSASR 系统中获得普通话和英语的良好声学边界(对齐),进行语种相关的声学边界学习是十分必要的。对此团队在CIF模型的基础上进行了改进,提出了一种语种区分的声学边界学习方法来用于CSASR任务,模型架构的详细信息见下图。
该模型由六个组件组成,分别是编码器、语种区分的权重估计器(LSWE)、CIF模块、自回归(AR)解码器、非自回归(NAR)解码器和语种变化检测(LCD)模块。编码器和自回归解码器以及CIF的计算过程与原始的CIF-based的ASR方法无异,语种区分的权重估计器负责完成语种独立的声学边界的建模,非自回归(NAR)解码器和语种变化检测(LCD)模块都是设计来辅助模型的训练,在解码阶段不再保留。
实验结果显示,该方法在开源中英混数据集SEAME的两个测试集testman和testsge上获得了新的SOTA效果,分别是%和%的MER。为了进一步验证该方法在更大数据量中的效果,团队在9000小时的内部数据集上进行了实验,最终也是获得了相对%的MER收益。据了解,本论文也是第一篇在CSASR任务中进行语种区分的声学边界学习的工作。
众所周知,领域迁移一直是ASR中十分重要的任务,但在目标领域获取成对的语音数据非常耗时且成本很高,因此其中很多工作都是利用目标领域相关文本数据来提升识别效果。传统方法中,TTS 会增加训练的周期和相关数据的存储成本,ILME和Shallow fusion等方法会增加推理时的复杂度。
基于该任务,团队在 RNN-T的基础上,将Encoder拆分成Audio Encoder和Shared Encoder,同时引入Text Encoder用于学习和语音信号类似的表征;语音和文本的表征则通过Shared Encoder,使用RNN-T loss进行训练,被称为 USTR(Unified Speech-Text Representation)。“对于Text Encoder这部分,我们探究了不同类型的表征形式,包括Character序列,Phone序列和Sub-word 序列,最终结果表明Phone序列的效果最好。对于训练方式,本文探究了基于给定RNN-T模型的Multi-step训练方式和完全随机初始化的Single-step训练方式。”
具体来说,团队使用LibriSpeech数据集作为Source domain,并利用 SPGISpeech 的标注文本作为纯文本进行领域迁移实验。实验结果表明,该方法在目标领域的效果提升可以和 TTS 基本持平;Single-step训练效果更高,效果和 Multi-step基本持平;同时还发现USTR方法可以和ILME这种外挂语言模型的方法进一步结合,即便LM使用的是相同的文本训练语料。最终,在目标领域测试集上,不结合外部语言模型,本方法相对基线 WER % ->%,相对下降 %。
基于知识蒸馏的高效内部语言模型估计方法 (Knowledge Distillation Approach for Efficient Internal Language Model Estimation)
尽管内部语言模型估计(ILME)已经证明其在端到端ASR语言模型融合中的有效性,但是与传统的Shallow fusion相比,ILME额外引入了内部语言模型的计算,增加了推理成本。为了估计内部语言模型,需要基于ASR解码器上做一次额外的前向计算,或者基于密度比率(Density Ratio)方法,用ASR训练集文本训练一个独立的语言模型(DR-LM),作为内部语言模型的近似。基于ASR解码器的ILME方法,由于直接利用ASR参数进行估计,通常可以取得优于密度比率方法的性能,但其计算量取决于ASR解码器的参数量;密度比率方法的优势则在于可以通过控制DR-LM的大小实现高效的内部语言模型估计。
为此火山语音团队提出在密度比率方法的框架下,用基于ASR解码器的ILME方法作为教师,蒸馏学习DR-LM,从而在保持ILME性能的同时,大幅降低ILME的计算成本。
实验结果表明,这一方法能够减少95%的内部语言模型参数量,同时性能与基于ASR解码器的ILME方法相当;采用性能更好的ILME方法作为教师时,相应的学生模型也能取得更好的效果;与计算量相当的传统密度比率方法相比,这一方法在高资源场景下性能略优,在低资源跨领域迁移场景下CER收益可达8%,并且对于融合权重更加鲁棒。
语音转换(Voice Conversion,VC)旨在将给定说话人的语音转换成另外一个说话人的音色,而同时保持语音内容不变。任意说话人之间的语音转换 (Any-to-Any VC)是一项十分具有挑战性的任务,因为训练集中并不存在测试阶段的说话人语音。现有工作表明,解耦即将语音信号分解成说话人隐变量与内容隐变量,在 any-to-any VC的任务上取得了不错的效果;但现有解耦模型通常依赖于外部资源,例如预训练的说话人模型或语音文本,以获得良好的解耦效果。
基于此,团队提出了一种基于自启发式说话人与内容解耦的语音转换模型。在现有的模型基础上进行了三点改进。首先考虑到说话人隐变量多为静态全局信息而内容隐变量一般为动态时序信息,团队使用个性化的编码器设计搭建说话人编码器和内容编码器;其次团队设计了一种正向训练对的训练策略,以保证相同说话人具有一致或者近似的说话人隐变量;最后团队提出了利用从后验概率分布中采样得到的特征表征去自启发式的建模先验概率分布,从而避免使用外部信息。
实验表明,S2CD在主观MOS测试中取得了更优异的分数,进而实现更加自然准确的语音转换,此外消融实验也证明了S2CD可以实现更优越的说话人信息与内容信息的解耦。
GenerTTS:跨语言语音合成中音色和风格与发音解耦和泛化(GenerTTS: Pronunciation Disentanglement for Timbre and Style Generalization in Cross-Lingual Text-to-Speech)
跨语言音色和风格可泛化的语音合成(TTS)旨在合成具有特定参考音色或风格的语音,该音色或风格并未在目标语言中进行过训练。它面临着这样的挑战,例如音色和发音之间难以分离,因为通常很难获取特定说话人的多语言语音数据;风格和发音混合在一起,因为语音风格包含语言无关和语言相关两部分。
为了解决这些挑战,火山语音团队提出了GenerTTS,分别精心设计了基于HuBERT的信息瓶颈,以解藕音色和发音/风格之间的联系;最小化风格和语言之间的互信息,以去除风格中的语言特定信息。
实验证明,GenerTTS在风格相似性和发音准确性方面优于基准系统,并实现了跨语言音色和风格的可泛化性。
一直以来,火山语音团队面向字节跳动内部各业务线,提供优质的语音AI技术能力以及全栈语音产品解决方案,并通过火山引擎对外提供服务。自 2017 年成立以来,团队专注研发行业领先的 AI 智能语音技术,不断探索AI 与业务场景的高效结合,以实现更大的用户价值。
—END—