摘要: 常用的语言模型都是在近似地求 P(wt|w1,w2,…,wt−1)P(wt|w1,w2,…,wt−1)。比如 n-gram 模型就是用 P(wt|wt−n+1,…,wt−1)P(wt|wt−n+1,…,wt−1) 近似表示前者。 一种用神经网络构建二元语言模型(即 P(wt|wt−1)P(wt|wt 阅读全文
posted @ 2016-07-05 19:15 奋斗中的菲比 阅读(176) 评论(0) 推荐(0) 编辑