简单语音识别教程
虽然真正的语音和音频识别系统要复杂得多,但是像MNIST(入门级的CV数据集)一样,本教程应该会让你对所涉技术有一个基本的了解。
完成本教程后,你将可以尝试创建一个模型,将一秒钟的音频剪辑去噪,并且能识别如下单词: “yes”,“no”,“up”,“down”,"left","right","on","off","stop",or "go"
。
你也可以在Android应用程序中运行该模型。
准备
你要确保已经安装了TensorFlow,由于该版本下载了超过1GB的训练数据,因此你需要电脑有足够的内存,另外网速要快,训练过程可能需要几个小时。
出错与解决
找不到audio_ops
|
|
解决方案
这个’audio_ops’只在TensorFlow1.4版本中有,所以,如果不是1.4的版本,一般都会有这个错误。
此时的解决方案,一是更新TensorFlow版本,二是使用如下命令安装tf-nightly即可。
|
|
详见参考连接三。
训练
要开始训练过程,请访问TensorFlow源代码树下载并运行:
|
|
训练过程将从下载“ 语音命令”数据集开始,该数据集由65000个WAVE音频文件组成,其中有30个不同的单词。
这些数据是由Google收集的,并根据CCBY许可证发布。存档超过1GB,所以下载可能需要一段时间,但你应该能看到进度日志,一旦下载完成,你就不用再次执行此步骤了。
下载完成后,你将看到如下所示的日志记录信息:
|
|
这表明初始化过程已经完成,循环训练已经开始。你会看到它输出每个训练步骤的信息。
步骤分解:
Step #1表明我们正在循环训练的第一步。在这种情况下,总共将有18000个步骤,所以你可以查看步骤号码,了解其完成程度有多接近。
rate 0.001000是控制网络权重更新速度的学习率。早期的这个数字是相对较高的(0.001),但是对于后来的训练周期,它会减少10倍到0.0001。
accuracy 7.0%
在这个训练步骤中正确地预测了有多少classes。value函数往往波动很大,但随着训练的进行,平均值会增加。该模型输出一个数字数组,每个标签一个,每个数字是该类输入的预测可能性。
通过选择具有最高分数的条目来选择预测的标签,分数总是在零和一之间。
cross entropy 2.611571
是我们用来指导培训过程的损失功能的结果。这是通过比较当前训练运动与正确标签的分数向量获得的分数,这在训练期间应该向下倾斜。
经过一百步,你应该看到这样的一行:
这是将当前训练的权重保存到checkpoint文件中。如果你的训练脚本中断,可以查找最后保存的checkpoint,然后:--start_checkpoint=/tmp/speech_commands_train/conv.ckpt-100
使用命令行参数重新启动脚本, 从那里开始。
混淆矩阵
四百步后,将记录以下信息:
第一部分是混淆矩阵。要了解这是什么意思,你首先需要知道正在使用的标签,在这种情况下,它们分别表示为静音、未知yes、no、up、down、left、right、on、off、stop、go
。
第一行是所有的静音剪辑,第二个剪辑是未知的单词,第三个“yes”等。
该矩阵可以比单个准确率得分更有用,因为它可以很好地总结出网络发生的错误。在此示例中,你可以看到除了初始条目之外,第一行中的所有条目都为零。
因为第一行实际上都是静音的片段,所以这意味着它们都没有被错误的标注为文字,所以我们没有任何静音的否定。这表明网络已经越来越好地区分了静音与谈话。
一个完美的模型将产生一个混淆矩阵,其中所有的条目都是从对角线穿过中心的零点。一旦你确定了可以通过添加更多数据来解决问题,该模型的方差可以帮助你了解模型怎样最容易混淆。
验证
混淆矩阵之后,你会看到如下一行:
将数据集分为三类是很好的做法。最大的(大约是数据的80%)用于训练网络,一个较小的集(10% “validation”)被保留用于评估训练中的准确性,另一组10%,“testing”)用于在训练完成后评估准确度。
通过将数据集分类为训练集、验证集、测试集,你可以确保该模型适用于之前从未见过的数据。测试集是一个额外的保障措施,以确保不仅仅是以适用于训练和验证集拟合调整模型。
训练脚本将数据集自动分成这三个类别,上面的记录行显示了在验证集上运行时的模型准确率。理想情况下,这应该与训练准确性相当接近。如果训练准确性增加但验证不是这样,这表明过度拟合正在发生,你的模型只是学习关于训练剪辑的东西,而不是真正的训练模式。
Tensorboard
使用Tensorboard可以看出训练进展。默认情况下,脚本将事件保存到/ tmp / retrain_logs,可以通过运行以下命令来加载它们:
然后在浏览器中导航到http:// localhost:6006
,将看到显示模型进度的图表。
完成训练
经过几个小时的训练(取决于你的电脑快慢),脚本应该已经完成了所有18000个步骤。它将识别出最终的混淆矩阵,以及准确率分数,全部运行在测试集上。使用默认设置,准确率在85%到90%之间。
因为音频识别在移动设备上特别有用,接下来我们将其导出为,在移动平台上易于使用的格式。要执行此操作,请运行以下命令行:
创建固定模型后,可以使用label_wav.py
脚本进行测试,如下所示:
可以识别出三个标签:
left (score = 0.81477)
right (score = 0.14139)
_unknown_ (score = 0.03808)
更多内容请查看论文:http://suo.im/3PW89b
在Android应用程序中运行模型
查看此模型在真实应用程序中如何工作的最简单的方法是,下载预构建的Android演示应用程序并将其安装在手机上。
你会看到“TF Speech”出现在应用程序列表中,打开它将显示我们刚刚训练过单词列表,从“yes”和“no”开始。
你还可以自己构建此应用程序,因为它是开源的, 并可作为github上TensorFlow存储库的一部分使用。
默认情况下,它从tensorflow.org下载一个预先训练的模型,但你可以轻松地用自己训练的模型替换它。
如果你自己创建的话,你需要确保SpeechActivity Java源文件中的 SAMPLE_RATE,SAMPLE_DURATION符合你训练时的默认设置所做的任何更改。
你还会看到一个Java版本的Rec
ognizeCommands模块。
这与本教程中的C++版本非常相似。如果你调整了参数,还可以在SpeechActivity中进行更新,以获得与服务器测试相同的结果。
演示应用程序,根据你在固定模型复制到模型中的标签文本文件,自动更新其用户界面列表,可以轻松地尝试不同的模型,而无需进行任何代码更改。如果你更改路径,需要update LABEL_FILENAME,MODEL_FILENAME添加到文件。