摘要: Segmentation Reading List Word Segmentation and Word discovery Reference & Comment 1 Ogawa, Yasushi; Matsuda, Toru 1999 Overl... 阅读全文
posted @ 2015-11-26 20:26 StevenLuke 阅读(145) 评论(0) 推荐(0) 编辑
摘要: 关于HMM模型的介绍,网上的资料已经烂大街,但是大部分都是在背书背公式,本文在此针对HMM模型在中文分词中的应用,讲讲实现原理。 尽可能的撇开公式,撇开推导。结合实际开源代码作为例子,争取做到雅俗共赏,童叟无欺。 没有公式,就没有伤害。 模型介绍 第一次听说HMM模型是从李开复的博文论文中听说... 阅读全文
posted @ 2015-11-26 16:14 StevenLuke 阅读(786) 评论(0) 推荐(1) 编辑
摘要: 二元的叫bigram,三元的叫trigram。 以bigram来说: (1) Average(k) > Average(k 一1) &Average(k) > A verage(k + 1) ; 或者 (2 ) A verage(k) > = t, t是词边界 阀值 《基 于 N Gram 的无... 阅读全文
posted @ 2015-11-26 15:50 StevenLuke 阅读(432) 评论(0) 推荐(0) 编辑
摘要: 常用统计语言模型,包括了N元文法统计模型(N-gram Model)、隐马尔科夫模型(Hidden Markov Model,简称HMM)、最大熵模型(Maximum Entropy Model)。 N-Gram这是一种依赖于上下文环境的词的概率分布的统计计算语言模型。 假定,在一个语句中第i个... 阅读全文
posted @ 2015-11-26 15:18 StevenLuke 阅读(391) 评论(0) 推荐(0) 编辑
摘要: #include int main() { __int64 n, ans; while(~scanf("%l64d", &n)) { n %= 10000; ans = (n*n*(n+1)*(n+1)) / 4; printf("%04d\n", ans%10000); } ret... 阅读全文
posted @ 2015-11-26 14:14 StevenLuke 阅读(73) 评论(0) 推荐(0) 编辑
摘要: #include int main() { int n, i, ans, flag=1; while(~scanf("%d", &n)) { ans = 0; while(n) { i = n % 10; if(i%2==0) ans += i; n /= 10; } ... 阅读全文
posted @ 2015-11-26 13:54 StevenLuke 阅读(89) 评论(0) 推荐(0) 编辑
摘要: 我要稳稳的幸福,不管未来怎样的,时光总会,有一些启示。 阅读全文
posted @ 2015-11-26 13:38 StevenLuke 阅读(71) 评论(0) 推荐(0) 编辑