正文
目前,声纹识别的任务主要有两种,一是声纹确认技术,即比对两份样本是否为同一人所说;另一个则是声纹识别技术,即判断某句话是样本库中的哪个人所说的。
今年年初,百度小度在“最强大脑”中也展示了采用声纹识别技术,从一群唱歌的参与者中找到拥有说某句话(样本为一段简短的通话)的那个人。百度官方在接受采访时,也指出本次节目的声纹识别难度比一般的声纹识别要难,主要采用的是“声学特征提取”与“说话人特征提取”两种方式,并用“DNN-ivector”及基于端到端深度学习的说话人信息提取算法进行训练和鉴别。
此前
AI科技评论
曾经报道过百度在语音技术上的进展。语音识别层面上,百度早在2010年就已经进行智能语音及相关技术研发。并从2012年开始逐步采用 DNN、Sequence Discriminative Training(序列区分度训练)、 LSTM 模型、CTC 及 Deep CNN 等神经网络进行语音的相关研究。在语音识别领域,百度相继于 2014 年及2015 年年底发布了 Deep Speech 和 Deep Speech 2,并凭借深度语音识别技术于 2016 年入选 MIT 十大突破技术。基于 Deep Speech 2 ,2017年百度推出了一款基于人工智能的转录应用 SwiftScribe。而在语音合成上,百度于今年正式推出 Deep Voice,一个实时语音合成的神经网络系统。