摘要: 自然语言处理:最大熵和对数线性模型Natural Language Processing: Maximum Entropy and Log-linear Models作者:Regina Barzilay(MIT,EECS Department, October 1, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年5月9日)三、 最大熵模型详述c) 相对熵(Kullback-Liebler距离)(Relative Entropy (Kullback-Liebler Distance)) i. 定义(Definition):两个概率分布p和q的相对熵D由下式给出(The r 阅读全文
posted @ 2011-09-02 11:53 loveyakamoz 阅读(723) 评论(0) 推荐(0) 编辑
摘要: 自然语言处理:最大熵和对数线性模型Natural Language Processing: Maximum Entropy and Log-linear Models作者:Regina Barzilay(MIT,EECS Department, October 1, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年4月29日)一、 词性标注(POS tagging):c) 特征向量表示(Feature Vector Representation) i. 一个特征就是一个函数f(A feature is a function f ): ii. 我们有m个特征fk,k = 1 阅读全文
posted @ 2011-09-02 11:52 loveyakamoz 阅读(716) 评论(0) 推荐(0) 编辑
摘要: 自然语言处理:最大熵和对数线性模型Natural Language Processing: Maximum Entropy and Log-linear Models作者:Regina Barzilay(MIT,EECS Department, October 1, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年5月5日)二、 最大熵(Maximum Entropy):b) 最大熵模型(Maximum Entropy Modeling) iii. 约束条件(Constraint): 每个特征的观察样本期望值与特征模型期望值相一致(observed expectatio. 阅读全文
posted @ 2011-09-02 11:52 loveyakamoz 阅读(862) 评论(0) 推荐(0) 编辑
摘要: 自然语言处理:最大熵和对数线性模型Natural Language Processing: Maximum Entropy and Log-linear Models作者:Regina Barzilay(MIT,EECS Department, October 1, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年4月25日)上一讲主要内容回顾(Last time):* 基于转换的标注器(Transformation-based tagger)* 基于隐马尔科夫模型的标注器(HMM-based tagger)遗留的内容(Leftovers):a) 词性分布(POS dis 阅读全文
posted @ 2011-09-02 11:51 loveyakamoz 阅读(999) 评论(0) 推荐(0) 编辑
摘要: Rethinking Recommendation EnginesOver two years ago, Netflix announced aRecommendation Engine contest- anyone who invents an algorithm that does 10% better than their current recommendation system will win $1 Million dollars. Many research teams raced to attack the problem, excited by the unpreceden 阅读全文
posted @ 2011-09-02 08:35 loveyakamoz 阅读(447) 评论(0) 推荐(0) 编辑