心胸决定格局,眼界决定境界...

yesno孤立词识别kaldi脚本

path.sh主要设定路径等

export KALDI_ROOT=`pwd`/../../..
[ -f $KALDI_ROOT/tools/env.sh ] && . $KALDI_ROOT/tools/env.sh
export PATH=$PWD/utils/:$KALDI_ROOT/tools/openfst/bin:$PWD:$PATH
[ ! -f $KALDI_ROOT/tools/config/common_path.sh ] && echo >&2 "The standard file $KALDI_ROOT/tools/config/common_path.sh is not present -> Exit!" && exit 1
. $KALDI_ROOT/tools/config/common_path.sh
export LC_ALL=C

添加kaldi主目录路径 
如果存在env.sh文件,则执行该脚本 
添加openfst执行文件等目录路径 如果不存在common_path.sh文件,则打印报错,退出 执行 存在,则执行该脚本文件 按照C排序法则

 

#!/bin/bash
 #run.pl本地脚本,确定训练与识别命令
train_cmd="utils/run.pl"      
decode_cmd="utils/run.pl"

#确定waves_yesno目录
if [ ! -d waves_yesno ]; then
  wget http://www.openslr.org/resources/1/waves_yesno.tar.gz || exit 1;
  # was:
  # wget http://sourceforge.net/projects/kaldi/files/waves_yesno.tar.gz || exit 1;
  tar -xvzf waves_yesno.tar.gz || exit 1;
fi
#

解压后,waves_yesno文件夹下的文件如下.

0_0_0_0_1_1_1_1.wav  0_0_1_1_0_1_1_0.wav  
...
1_1_1_0_1_0_1_1.wav
总共60个wav文件,采样率都是8k,wav文件里每一个单词要么”ken”要么”lo”(“yes”和”no”)的发音,所以每个文件有8个发音,文件命名中的1代表yes发音,0代表no的发音.

  

#确定训练语料和测试语料
train_yesno=train_yesno
test_base_name=test_yesno

#清理相关目录
rm -rf data exp mfcc

# Data preparation
#数据准备
local/prepare_data.sh waves_yesno
内部实现代码:
waves_dir=$1        将传入的文件目录赋值

ls -1 $waves_dir > data/local/waves_all.list    将wav文件夹所有文件名写入list文件中

local/create_yesno_waves_test_train.pl waves_all.list waves.test waves.train将waves_all.list中的60个wav文件名,分成两拨,各30个,分别记录在waves.test和waves.train文件中.
如waves.train文件内容如下:
0_0_0_0_1_1_1_1.wav

  ../../local/create_yesno_wav_scp.pl ${waves_dir} waves.test > ${test_base_name}_wav.scp

  ../../local/create_yesno_wav_scp.pl ${waves_dir} waves.train > ${train_base_name}_wav.scp

生成test_yesno_wav.scp和train_yesno_wav.scp 
根据waves.test 和waves.train又会生成test_yesno_wav.scp和train_yesno_wav.scp两个文件. 
这两个文件内容排列格式如下:
0_0_0_0_1_1_1_1 waves_yesno/0_0_0_0_1_1_1_1.wav   
发音id 对应文件

   ../../local/create_yesno_txt.pl waves.test > ${test_base_name}.txt

   ../../local/create_yesno_txt.pl waves.train > ${train_base_name}.txt

然后生成train_yesno.txt和test_yesno.txt 
这两个文件存放的是发音id和对应的文本.
0_0_1_1_1_1_0_0 NO NO YES YES YES YES NO NO


   for x in train_yesno test_yesno; do
       mkdir -p data/$x #创建文件夹
  cp data/local/${x}_wav.scp data/$x/wav.scp     #将local里面的scp(发音id 对应文件)和text(发音id  发音文本)文件保存再对应的训练或者测试文件夹里
  cp data/local/$x.txt data/$x/text
  cat data/$x/text | awk '{printf("%s global\n", $1);}' > data/$x/utt2spk     #将text(发音id  发音文本)转成 (发音id  发音人)
  utils/utt2spk_to_spk2utt.pl <data/$x/utt2spk >data/$x/spk2utt  #将utt2spk转成spk2utt
  done

生成utt2spk和spk2utt 
这个两个文件分别是发音和人对应关系,以及人和其发音id的对应关系.由于只有一个人的发音,所以这里都用global来表示发音.
utt2spk
<utt_id><speaker_id>
0_0_1_0_1_0_1_1 global

utt2spk
<speaker_id> <all_hier_utterences>

此外还可能会有如下文件(这个例子没有用到):

segments 
包括每个录音的发音分段/对齐信息 
只有在一个文件包括多个发音时需要
reco2file_and_channel 
双声道录音情况使用到
spk2gender 
将说话人和其性别建立映射关系,用于声道长度归一化. 
以上生成的文件经过辅助操作均在:


data/train_yesno/
data/test_yesno/
目录结构如下:
data
├───train_yesno   训练文件夹
│   ├───text      (发音id 发音文本)
│   ├───utt2spk   (发音id 发音人)
│   ├───spk2utt   (发音人 发音id)
│   └───wav.scp   (发音id 发音文件)
└───test_yesno
    ├───text
    ├───utt2spk
    ├───spk2utt
    └───wav.scp

  


#准备词典发音脚本
local/prepare_dict.sh
内部代码实现:
mkdir -p data/local/dict  #首先创建词典目录

input的两个txt应该是手工写的
非语言音发音拷贝到lexicon_words.txt
cp input/lexicon_nosil.txt data/local/dict/lexicon_words.txt
将所有发音拷贝到lexicon.txt中
cp input/lexicon.txt data/local/dict/lexicon.txt

这个简单的例子只有两个单词:YES和NO,为简单起见,这里假设这两个单词都只有一个发音:Y和N。这个例子直接拷贝了相关的文件,非语言学的发音,被定义为SIL。

data/local/dict/lexicon.txt
<SIL> SIL
YES Y
NO N


cat input/phones.txt | grep -v SIL > data/local/dict/nonsilence_phones.txt
grep -v 反向选择

echo "SIL" > data/local/dict/silence_phones.txt

echo "SIL" > data/local/dict/optional_silence.txt

echo "Dictionary preparation succeeded"

lexicon.txt,完整的词位-发音对
lexicon_words.txt,单词-发音对
silence_phones.txt, 非语言学发音
nonsilence_phones.txt,语言学发音
optional_silence.txt ,备选非语言发音 

  

#语音词典转成FST脚本
最后还要把字典转换成kaldi可以接受的数据结构-FST(finit state transducer)。这一转换使用如下命令
utils/prepare_lang.sh --position-dependent-phones false data/local/dict "<SIL>" data/local/lang data/lang
由于语料有限,所以将位置相关的发音disable。这个命令的各行意义如下:
utils/prepare_lang.sh --position-dependent-phones false <RAW_DICT_PATH> <OOV> <TEMP_DIR> <OUTPUT_DIR>
OOV存放的是词汇表以外的词,这里就是静音词(非语言学发声意义的词) 

发音字典是二进制的OpenFst 格式,可以使用如下命令查看:

~/source_code/kaldi-trunk/egs/yesno/s5$ sudo ../../../tools/openfst-1.6.2/bin/fstprint --isymbols=data/lang/phones.txt --osymbols=data/lang/words.txt data/lang/L.fst

0   1   <eps>   <eps>   0.693147182
0   1   SIL <eps>   0.693147182
1   1   SIL <SIL>
1   1   N   NO  0.693147182
1   2   N   NO  0.693147182
1   1   Y   YES 0.693147182
1   2   Y   YES 0.693147182
1
2   1   SIL <eps>
. utils/parse_options.sh

if [ $# -ne 4 ]; then
  echo "usage: utils/prepare_lang.sh <dict-src-dir> <oov-dict-entry> <tmp-dir> <lang-dir>"
  echo "e.g.: utils/prepare_lang.sh data/local/dict <SPOKEN_NOISE> data/local/lang data/lang"
  echo "<dict-src-dir> should contain the following files:"
  echo " extra_questions.txt  lexicon.txt nonsilence_phones.txt  optional_silence.txt  silence_phones.txt"
  echo "See http://kaldi-asr.org/doc/data_prep.html#data_prep_lang_creating for more info."
  echo "options: "
  echo "     --num-sil-states <number of states>             # default: 5, #states in silence models."
  echo "     --num-nonsil-states <number of states>          # default: 3, #states in non-silence models."
  echo "     --position-dependent-phones (true|false)        # default: true; if true, use _B, _E, _S & _I"
  echo "                                                     # markers on phones to indicate word-internal positions. "
  echo "     --share-silence-phones (true|false)             # default: false; if true, share pdfs of "
  echo "                                                     # all non-silence phones. "
  echo "     --sil-prob <probability of silence>             # default: 0.5 [must have 0 <= silprob < 1]"
  echo "     --phone-symbol-table <filename>                 # default: \"\"; if not empty, use the provided "
  echo "                                                     # phones.txt as phone symbol table. This is useful "
  echo "                                                     # if you use a new dictionary for the existing setup."
  echo "     --unk-fst <text-fst>                            # default: none.  e.g. exp/make_unk_lm/unk_fst.txt."
  echo "                                                     # This is for if you want to model the unknown word"
  echo "                                                     # via a phone-level LM rather than a special phone"
  echo "                                                     # (this should be more useful for test-time than train-time)."
  echo "     --extra-word-disambig-syms <filename>           # default: \"\"; if not empty, add disambiguation symbols"
  echo "                                                     # from this file (one per line) to phones/disambig.txt,"
  echo "                                                     # phones/wdisambig.txt and words.txt"
  exit 1;
fi

  

#准备语言模型
 
 
 
 
 
 
 
 
这里使用的是一元文法语言模型,同样要转换成FST以便kaldi接受。该语言模型原始文件是data/local/lm_tg.arpa,生成好的FST格式的。是字符串和整型值之间的映射关系,kaldi里使用整型值。

gsc@X250:~/kaldi/egs/yesno/s5$ head -5 data/lang/phones.txt    音素
<eps> 0
SIL 1
Y 2
N 3
#0 4
gsc@X250:~/kaldi/egs/yesno/s5$ head -5 data/lang/words.txt     词
<eps> 0
<SIL> 1
NO 2
YES 3
#0 4

可以使用如下命令查看生成音素的树形结构:

phone 树

~/source_code/kaldi-trunk/egs/yesno/s5$ ~/kaldi-trunk/src/bin/draw-tree data/lang/phones.txt exp/mono0a/tree | dot -Tps -Gsize=8,10.5 | ps2pdf - ./tree.pdf

 

LM(language model)在data/lang_test_tg/。

 

查看拓扑结构

<ForPhone></ForPhones>之间的数字,1表示silcense,2,3分别表示Y和N,这从拓扑图里也可以看出来。    1 2 3 在phones.txt有说明。
发音音素指定了三个状态从左到右的HMM以及默认的转变概率。为silence赋予5个状态。这个默认值再上面黄色标注那大块有说明。

当前状态只会往后面状态转移。

0.mdl模型的内容

用1个hmm表示1个音素(此处是一个孤立词)。1个hmm根据发音类型,用5个(sil)或者3个(非sil)状态来表示,状态之间有转移。

状态状态用一个对角GMM来表示,但此处1个GMM只包含1个高斯。

特征维度为39

 

转移模型

topo

<TransitionModel> 
<Topology> 
<TopologyEntry> 
<ForPhones> 
2 3 
</ForPhones> 
<State> 0 <PdfClass> 0 <Transition> 0 0.75 <Transition> 1 0.25 </State> 
<State> 1 <PdfClass> 1 <Transition> 1 0.75 <Transition> 2 0.25 </State> 
<State> 2 <PdfClass> 2 <Transition> 2 0.75 <Transition> 3 0.25 </State> 
<State> 3 </State> 
</TopologyEntry> 
<TopologyEntry> 
<ForPhones> 
1 
</ForPhones> 
<State> 0 <PdfClass> 0 <Transition> 0 0.25 <Transition> 1 0.25 <Transition> 2 0.25 <Transition> 3 0.25 </State> 
<State> 1 <PdfClass> 1 <Transition> 1 0.25 <Transition> 2 0.25 <Transition> 3 0.25 <Transition> 4 0.25 </State> 
<State> 2 <PdfClass> 2 <Transition> 1 0.25 <Transition> 2 0.25 <Transition> 3 0.25 <Transition> 4 0.25 </State> 
<State> 3 <PdfClass> 3 <Transition> 1 0.25 <Transition> 2 0.25 <Transition> 3 0.25 <Transition> 4 0.25 </State> 
<State> 4 <PdfClass> 4 <Transition> 4 0.75 <Transition> 5 0.25 </State> 
<State> 5 </State> 
</TopologyEntry> 
</Topology>

音素 hmm状态

   11个,见上面的树叶子节点;

音素标号  hmm状态标号  pdf标号

<Triples> 11 
1 0 0 
1 1 1 
1 2 2 
1 3 3 
1 4 4 
2 0 5 
2 1 6 
2 2 7 
3 0 8 
3 1 9 
3 2 10 
</Triples>

高斯模型

如下的20+1个log概率对应于11个phone(0-10)。

 <LogProbs> [ 0 -1.386294 ... ] </LogProbs>

接下来是高斯模型的维度39维(没有能量),对角GMM参数总共11个。

<DIMENSION> 39 <NUMPDFS> 11 <DiagGMM>

在接下来就是对角高斯参数的均值方差权重等参数:

<GCONSTS>  [ -79.98567 ]
<WEIGHTS>  [ 1 ]
<MEANS_INVVARS>  [
  0.001624335 ...]
<INV_VARS>  [
  0.006809053 ... ]

 

编译训练图

为每一个训练的发音编译FST,为训练的发句编码HMM结构。

kaldi 中表的概念

表是字符索引-对象的集合,有两种对象存储于磁盘 
“scp”(script)机制:.scp文件从key(字串)映射到文件名或者pipe 
“ark”(archive)机制:数据存储在一个文件中。 
Kaldi 中表 
一个表存在两种形式:”archive”和”script file”,他们的区别是archive实际上存储了数据,而script文件内容指向实际数据存储的索引。 
从表中读取索引数据的程序被称为”rspecifier”,向表中写入字串的程序被称为”wspecifier”。

 

rspecifiermeaning
ark:- 从标准输入读取到的数据做为archive
scp:foo.scp foo.scp文件指向了去哪里找数据

冒号后的内容是wxfilename 或者rxfilename,它们是pipe或者标准输入输出都可以。 
表只包括一种类型的对象(如,浮点矩阵) 
respecifier和wspecifier可以包括一些选项: 
- 在respecifier中,ark,s,cs:- ,表示当从标准输入读操作时,我们期望key是排序过的(s),并且可以确定它们将会按排序过的顺序读取,(cs)意思是我们知道程序将按照排序过的方式对其进行访问(如何条件不成立,程序会crash),这是得Kaldi不要太多内存下可以模拟随机访问。 
* 对于数据源不是很大,并且结果和排序无关的情形时,rspecifier可以忽略s,cs。 
* scp,p:foo.scp ,p表示如果scp索引的文件存在不存在的情况,程序不crash(prevent of crash)。 
* 对于写,选项t表示文本模式

script文件格式是,<key> <rspecifier|wspecifier>utt1 /foo/bar/utt1.mat

从命令行传递的参数指明如何读写表(scp,ark)。对于指示如何读表的字串称为“rspecifier”,而对写是”wspecifier”。 
写表的实例如下:

wspecifier意义
ark:foo.ark 写入归档文件foo.ark
scp:foo.scp 使用映射关系写入foo.scp
ark:- 将归档信息写入stdout
ark,t:|gzip -c > foo.gz 将文本格式的归档写入foo.gz
ark,t:- 将文本格式的归档写入 stdout
ark,scp:foo.ark, foo.scp 写归档和scp文件

读表:

 

rspecifier意义
ark:foo.ark 读取归档文件foo.ark
scp:foo.scp 使用映射关系读取foo.scp
scp,p:foo.scp 使用映射关系读取foo.scp,p:如果文件不存在,不报错
ark:- 从标准输入读取归档
ark:gunzip -c foo.gz| 从foo.gz读取归档信息
ark,s,cs:- 从标准输入读取归档后排序
 
eg:
raw_mfcc_test_yesno.scp
内容:

1_0_0_0_0_0_0_0 /home/wenba/source_code/kaldi-trunk/egs/yesno/s5/mfcc/raw_mfcc_test_yesno.1.ark:16
1_0_0_0_0_0_0_1 /home/wenba/source_code/kaldi-trunk/egs/yesno/s5/mfcc/raw_mfcc_test_yesno.1.ark:8841
1_0_0_0_0_0_1_1 /home/wenba/source_code/kaldi-trunk/egs/yesno/s5/mfcc/raw_mfcc_test_yesno.1.ark:17718

发音id   mfcc数据位置(mfcc特征从ark文件第n行开始读起)

raw_mfcc_test_yesno.1ark
保存所有测试语音文件的mfcc 原始数据

cmvn_test_yesno.scp
内容:说话人global,因为只有一个人,所以只有1行,数据保存再ark文件中
global /home/wenba/source_code/kaldi-trunk/egs/yesno/s5/mfcc/cmvn_test_yesno.ark:7

 



特征提取和训练

特征提取,这里是做mfcc

 

steps/make_mfcc.sh --nj <N> <DATA_DIR> <LOG_DIR> <MFCC_DIR> 
--nj <N>是处理器单元数
<DATA_DIR>训练语料所在目录
<LOG_DIR>这个目录下记录了make_mfcc的执行log
<MFCC_DIR>是mfcc特征输出目录
for x in train_yesno test_yesno; do
 steps/make_mfcc.sh --nj 1 data/$x exp/make_mfcc/$x mfcc
 steps/compute_cmvn_stats.sh data/$x exp/make_mfcc/$x mfcc
 utils/fix_data_dir.sh data/$x
done

 

该脚本主要执行的命令是: 

~/kaldi/egs/yesno/s5$ head -3 exp/make_mfcc/train_yesno/make_mfcc_train_yesno.1.log   #看log文件的前3行,head linux命令
#compute-mfcc-feats --verbose=2 --config=conf/mfcc.conf scp,p:exp/make_mfcc/train_yesno/wav_train_yesno.1.scp ark:- | copy-feats --compress=true ark:- ark,scp:/home/gsc/kaldi/egs/yesno/s5/mfcc/raw_mfcc_train_yesno.1.ark,/home/gsc/kaldi/egs/yesno/s5/mfcc/raw_mfcc_train_yesno.1.scp 
copy-feats --compress=true ark:- ark,scp:/home/gsc/kaldi/egs/yesno/s5/mfcc/raw_mfcc_train_yesno.1.ark,/home/gsc/kaldi/egs/yesno/s5/mfcc/raw_mfcc_train_yesno.1.scp
compute-mfcc-feats --verbose=2 --config=conf/mfcc.conf scp,p:exp/make_mfcc/train_yesno/wav_train_yesno.1.scp ark:-

 

archive文件存放的是每个发音对应的特征矩阵(帧数X13大小)。 
第一个参数scp:...指示在[dir]/wav1.scp里罗列的文件。  

0_0_0_0_1_1_1_1 [
48.97441 -14.08838 -0.1344408 4.717922 21.6918 -0.2593708 -8.379625 8.9065 4.354931 17.00239 0.8865671 9.878274 2.105978
53.68612 -10.14593 -1.394655 -2.119211 13.08846 6.172102 8.67521 19.2422 0.4617066 5.210238 3.242958 2.333473 -0.5913677

 

 

通常在做NN训练时,提取的是40维度,包括能量和上面的一阶差分和二阶差分。

wenba@welen-pc:~/source_code/kaldi-trunk/egs/yesno/s5/mfcc$ ../../../../src/featbin/copy-feats ark:raw_mfcc_train_yesno.1.ark ark:- |../../../../src/featbin/add-deltas ark:- ark,t:- | head
../../../../src/featbin/add-deltas ark:- ark,t:-
../../../../src/featbin/copy-feats ark:raw_mfcc_train_yesno.1.ark ark:-
0_0_0_0_1_1_1_1 [
48.97441 -14.08838 -0.1344408 4.717922 21.6918 -0.2593708 -8.379625 8.9065 4.354931 17.00239 0.8865671 9.878274 2.105978 1.737444 1.14988 0.4575244 -0.4011359 -1.597765 0.7266266 2.309042 0.4257504 0.1381468 -3.825747 0.12343 -1.734139 0.5379874 0.5782275 0.1020916 -0.1619524 0.04889613 -1.136323 0.3202233 -0.7055103 -1.168674 0.1469378 0.2680922 -1.28895 -0.2633252 0.06172774
53.68612 -10.14593 -1.394655 -2.119211 13.08846 6.172102 8.67521 19.2422 0.4617066 5.210238 3.242958 2.333473 -0.5913677 2.134995 -0.08213401 -0.1649551 0.8477319 -3.646181 1.210454 -0.9891207 -1.523279 1.419143 -0.8481507 -1.178195 -2.021803 0.888494 0.2349093 0.07898982 -0.2755309 0.01829068 -0.4357649 0.007175058 -1.218953 -1.580022 0.1808465 1.43533 -1.377595 0.1183428 -0.5812462

然后归一化导谱特征系数
steps/compute_cmvn_stats.sh data/$x exp/make_mfcc/$x mfcc

生成的文件最终在mfcc目录下:

cmvn_test_yesno.ark  
cmvn_train_yesno.ark  
raw_mfcc_test_yesno.1.ark  
raw_mfcc_train_yesno.1.ark
cmvn_test_yesno.scp  
cmvn_train_yesno.scp  
raw_mfcc_test_yesno.1.scp  
raw_mfcc_train_yesno.1.scp

  详细各个命令意义,参考kaldi官网文档http://kaldi-asr.org/doc/tools.html

单音节训练

steps/train_mono.sh --nj <N> --cmd <MAIN_CMD> <DATA_DIR> <LANG_DIR> <OUTPUT_DIR>
--cmd <MAIN_CMD>,如果使用本机资源,使用utils/run.pl。

steps/train_mono.sh --nj 1 --cmd "$train_cmd" \
  --totgauss 400 \
  data/train_yesno data/lang exp/mono0a

这将生成语言模型的FST, 
使用如下命令可以查看输出:

fstcopy 'ark:gunzip -c exp/mono0a/fsts.1.gz|' ark,t:- | head -n 20

其每一列是(Q-from, Q-to, S-in, S-out, Cost)

 

解码和测试

图解码

首先测试文件也是按此生成。 
然后构建全连接的FST。

utils/mkgraph.sh data/lang_test_tg exp/mono0a exp/mono0a/graph_tgpr

解码

# Decoding
steps/decode.sh --nj 1 --cmd "$decode_cmd" \
    exp/mono0a/graph_tgpr data/test_yesno exp/mono0a/decode_test_yesno

结果查看

for x in exp/*/decode*; do [ -d $x ] && grep WER $x/wer_* | utils/best_wer.sh; done

如果对单词级别的对齐信息感兴趣,可以参考steps/get_ctm.sh



local/prepare_data.sh waves_yesno local/prepare_dict.sh utils/prepare_lang.sh --position-dependent-phones false data/local/dict "<SIL>" data/local/lang data/lang local/prepare_lm.sh #特征提取 #遍历训练与测试文件夹各个文件 #提取mfcc脚本 #cmvn统计脚本 # Feature extraction for x in train_yesno test_yesno; do steps/make_mfcc.sh --nj 1 data/$x exp/make_mfcc/$x mfcc steps/compute_cmvn_stats.sh data/$x exp/make_mfcc/$x mfcc utils/fix_data_dir.sh data/$x done #单音素模型训练 # Mono training steps/train_mono.sh --nj 1 --cmd "$train_cmd" \ --totgauss 400 \ data/train_yesno data/lang exp/mono0a #图? # Graph compilation utils/mkgraph.sh data/lang_test_tg exp/mono0a exp/mono0a/graph_tgpr #解码 # Decoding steps/decode.sh --nj 1 --cmd "$decode_cmd" \ exp/mono0a/graph_tgpr data/test_yesno exp/mono0a/decode_test_yesno # for x in exp/*/decode*; do [ -d $x ] && grep WER $x/wer_* | utils/best_wer.sh; done

 参考文档:http://blog.csdn.net/shichaog/article/details/73264152?locationNum=9&fps=1

posted @ 2017-09-06 15:46  WELEN  阅读(6380)  评论(2编辑  收藏  举报