会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
春文秋武
Keep learning, Keep going
博客园
首页
新随笔
管理
2017年3月10日
Language Modeling with N-grams (Speech and Language Processing)
摘要: 语言模型 计算词序列(words sequences)概率的模型称为语言模型(LMs),词序列(w1,w2,...,wn)的概率为: P(w1n) = P(w1)p(w2|w1)P(w3|w1w2)...P(wn|w1n 1) Bigram model 二元模型的前提是Markov假设(一个词的概率
阅读全文
posted @ 2017-03-10 19:20 春文秋武
阅读(482)
评论(0)
推荐(0)
编辑
公告