Command Palette
Search for a command to run...

摘要
本文介绍了一种用于语音命令识别的带有注意力机制的卷积递归网络。注意力模型是提高自然语言处理、图像描述和语音任务性能的强大工具。所提出的模型在Google语音命令数据集V1上建立了新的最先进准确率,达到94.1%,在V2上(针对20个命令的识别任务)则达到了94.5%,同时该模型仅包含202K个可训练参数,保持了较小的模型规模。研究结果与先前的卷积实现方法在5个不同任务上的表现进行了对比(包括V1和V2上的20个命令识别任务、V1上的12个命令识别任务、V1上的35个单词识别任务以及左右方向识别任务)。文中详细展示了性能结果,并证明了所提出的注意力机制不仅提高了性能,还允许检查网络在输出特定类别时考虑了音频的哪些区域。
代码仓库
huckiyang/QuantumSpeech-QCNN
tf
GitHub 中提及
renyuanL/ry-Speech-commands
tf
GitHub 中提及
douglas125/SpeechCmdRecognition
官方
tf
GitHub 中提及
widzemin/audio_project
tf
GitHub 中提及
Arizona-Voice/blossom
pytorch
GitHub 中提及
huckiyang/speech_quantum_dl
tf
GitHub 中提及
httttttt/ResNetAtentionBiLSTM
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 | 
|---|---|---|
| keyword-spotting-on-google-speech-commands | Attention RNN | Google Speech Commands V1 12: 95.6 Google Speech Commands V1 2: 99.2 Google Speech Commands V1 20: 94.1 Google Speech Commands V1 35: 94.3 Google Speech Commands V2 12: 96.9 Google Speech Commands V2 2: 99.4 Google Speech Commands V2 20: 94.5 Google Speech Commands V2 35: 93.9  |