摘要: 基于贝叶斯的深度神经网络自适应及其在鲁棒自动语音识别中的应用 直接贝叶斯DNN自适应 使用高斯先验对DNN进行MAP自适应 为何贝叶斯在模型自适应中很有用? 因为自适应问题可以视为后验估计问题: 能够克服灾难性遗忘问题 在实现通用智能时,神经网络需要学习并记住多个任务,任务顺序无标注,任务会不可预期地切换,同种任务可能在很长一段时间内不会复现。当对当... 阅读全文
posted @ 2018-06-07 20:29 JarvanWang 阅读(367) 评论(0) 推荐(0) 编辑
摘要: 统计时长 wav-to-duration scp:data/train/wav.scp ark,t:- 2>/dev/null|awk 'BEGIN{SUM=0}{SUM+=$2}END{print SUM/3600}' 或 awk 'BEGIN{SUM=0}{SUM+=$2}END{print SUM/3600}' data/train/utt2dur 生成utt2dur u... 阅读全文
posted @ 2018-06-07 20:28 JarvanWang 阅读(1204) 评论(0) 推荐(0) 编辑
摘要: nnet3/nnet-common.h 定义了Index,(n, t, x)三元组,表示第n个batch中第t帧。 并声明了关于Index或Cindex的一些读写操作。 nnet3/nnet-nnet.h 声明了NetworkNode(主要包含其类型以及索引信息) 声明了Nnet(nnet3网络类) private: //网络中的组件名列表 std::vecto... 阅读全文
posted @ 2018-06-07 20:27 JarvanWang 阅读(1118) 评论(0) 推荐(0) 编辑
摘要: steps/nnet3/train_dnn.py --l2-regularize-factor 影响模型参数的l2正则化强度的因子。要进行l2正则化,主要方法是在配置文件中使用'l2-regularize'进行配置。l2正则化因子将乘以组件中的l2正则化值,并且可用于通过模型平均化以校正与并行化带来的影响。 (float,默认值= 1) src/nnet3/nnet-utils.cc:... 阅读全文
posted @ 2018-06-07 20:26 JarvanWang 阅读(1141) 评论(0) 推荐(0) 编辑
摘要: Common utilities base/kaldi-common.h 几乎所有Kaldi程序都会include该头文件。 该头文件include了一些其他位于base/目录的头文件,主要提供: 错误-日志 宏 类型定义(typedefs) 数学实用程序函数(如随机数生成器) 其他#defines util/common-utils.h 命令行参数解析 ... 阅读全文
posted @ 2018-06-07 20:25 JarvanWang 阅读(1771) 评论(0) 推荐(0) 编辑
摘要: 1 2 3 4 5 6 7 8 0 0 0 0.5 1 0.5 1 1 1 0.5 2 0.5 2 2 2 0.5 3 0.5 3 在这个特定的HmmTopology对象中有一个TopologyEntry,它涵盖了音素1到8(因此在这个例子中只有8个音素,它们都共享相同的拓扑结构)。有三种发射状态... 阅读全文
posted @ 2018-06-07 20:25 JarvanWang 阅读(1141) 评论(0) 推荐(0) 编辑
摘要: 目标与背景 nnet3概要 nnet3中基础数据结构 Cindexes Cindex类是一个二元组(int32, Index),其中int32对应于神经网络中结点的索引。根据上文所述,一个神经网络由: 多个组件 多个结点之上的图(对应于特定网络计算) 其中,Cindexes与编译计算中矩阵的行有一一对应关系。之前提高,Indexes与矩阵行有对应关系;区别在于,除了矩... 阅读全文
posted @ 2018-06-07 20:24 JarvanWang 阅读(603) 评论(0) 推荐(0) 编辑
摘要: 编译流程将Nnet和ComputationRequest作为输入,输出NnetComputation。ComputationRequest包含对请求的输出索引、可用的输入索引的表示。 创建计算图 ComputationGraph的详情 ComputationGraph将Cindexes映射到cindex_ids以及将cindex_ids映射到Cindexes。 Comp... 阅读全文
posted @ 2018-06-07 20:23 JarvanWang 阅读(380) 评论(0) 推荐(0) 编辑
摘要: Delta特征是将mfcc特征(13维)经过差分得到的 它是做了一阶二阶的差分 提取的mfcc特征是13维的 然后通过delta就变成了39维 一阶差分: D(P(t))=P(t)-P(t-1) 二阶差分: D(D(P(t)))=(P(t)-P(t-1))-(P(t-1)-P(t-2)) Delta 阅读全文
posted @ 2017-09-09 22:45 JarvanWang 阅读(2930) 评论(3) 推荐(0) 编辑
摘要: xent_regularize, Cross Entropy Regularize nnet3/nnet-discriminative-trainning.cc:109 void NnetDiscriminativeTrainer::ProcessOutputs() 交叉熵正则化,即帧平滑 《解读深 阅读全文
posted @ 2017-09-09 22:45 JarvanWang 阅读(1290) 评论(0) 推荐(0) 编辑