摘要: 阅读全文
posted @ 2013-04-23 20:25 Gao Lan 阅读(136) 评论(0) 推荐(0) 编辑
摘要: 最近看机器学习的内容,碰到了无数次关于最大似然性和最小二乘法的概念和应用,今天就把它整理一下。机器学习大体可分为监督式学习和非监督式学习,在这两种学习方式中,最大似然性和最小二乘法都有着广泛的应用,要想正确的理解它们,首先得弄清它们的已知和假设条件,下面就分开讨论。(i)非监督式学习:非监督学习的特征,就是只有输入向量而没有与之对应的输出向量。方便起见,我们在这里讨论单值向量情形,即输入x=(x1,x2,...,xN),表示训练集有N个输入值,假设xn独立同分布,并且服从高斯分布(单峰),µ、σ2未知,也正是我们要求的量。那么,每个输入值xn的概率分布(高斯分布)如下:p(xn|&# 阅读全文
posted @ 2013-04-23 19:16 Gao Lan 阅读(588) 评论(0) 推荐(0) 编辑
摘要: 这个实例的具体实现过程,http://www.52nlp.cn/hmm-application-in-natural-language-processing-one-part-of-speech-tagging-3这个链接讲解的很详细,我只补充实现过程中出现的问题和解决方法,这是链接里没提到的。我首先声明,我使用的系统是Ubuntu12.04。主要补充3点:1、进入example0目录后,要先执行文件--link,这是个可执行文件,使用的解释器为csh,由于系统默认是不安装的,所以要先安装该解释器,在执行link。命令如下:sudo apt-get install csh./link2、在ex 阅读全文
posted @ 2013-04-14 10:21 Gao Lan 阅读(602) 评论(0) 推荐(0) 编辑
摘要: 1、问题当我们描述世界上的很多事物时,常常喜欢用某个已知的分布模型来近似刻画它,比如二项分布和高斯分布(正态分布)等。但是,当我们选定某个模型后,就产生了模型中参数如何确定的问题,为此就引入了极大似然性估计。2、基本思想为了确定合适的参数,我们首先得从现实中获取一定的实例样本S。这时,人们就想了,既然我们获得了实例样本S,那么它在所有样本中出现的概率就应该是最大的,这就转化成求使得P(S)最大的极值点问题。求出的极值点就是所要确定的参数的合适的值。3、示例我们就以简单的抛硬币为例子,演示下最大似然性估计。假设它服从二项分布,P(head)=u设S为人们观察到的事件的特定序列,即上述的实例样本, 阅读全文
posted @ 2013-04-14 10:07 Gao Lan 阅读(254) 评论(0) 推荐(0) 编辑
摘要: 这是我的第一篇博客,期盼博客园能在以后的日子里伴随我的成长~ 阅读全文
posted @ 2013-04-13 18:42 Gao Lan 阅读(91) 评论(0) 推荐(0) 编辑