摘要: Attention 机制 1. 介绍Attention机制过程中,经常提到t时刻或者i位置,其实这两种表述本质上是一样的,只不过是序列在不同问题上表达方式不同而已. 在机器翻译中,使用术语位置更合适些;而在语音识别中使用术语时刻更合适些. 2. 先清楚几个变量(以机器翻译为例) 2.1 $X$: 待 阅读全文
posted @ 2018-08-26 10:05 星辰大海,绿色星球 阅读(251) 评论(0) 推荐(0) 编辑
摘要: DeepSpeech2中主要讲的几点 1. 网络结构 convolution layers rnn layers one fully connected layer 网络结构的输入是音频信号的频谱特征, 输出的是字母表中的一个个字母.(不同语言的字母表不一样). 训练是采用CTC损失函数. 在推理过 阅读全文
posted @ 2018-08-26 10:05 星辰大海,绿色星球 阅读(4916) 评论(0) 推荐(0) 编辑