连接

TF-IDF算法

wiki:https://zh.wikipedia.org/wiki/Tf-idf

参考:https://zhuanlan.zhihu.com/p/31197209

 

tf-idf(英语:term frequency–inverse document frequency)是一种用于信息检索文本挖掘的常用加权技术。tf-idf是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。tf-idf加权的各种形式常被搜索引擎应用,作为文件与用户查询之间相关程度的度量或评级。除了tf-idf以外,互联网上的搜索引擎还会使用基于链接分析的评级方法,以确定文件在搜索结果中出现的顺序。

 

在一份给定的文件里,词频(term frequency,tf)指的是某一个给定的词语在该文件中出现的频率。这个数字是对词数(term count)的归一化,以防止它偏向长的文件。(同一个词语在长文件里可能会比短文件有更高的词数,而不管该词语重要与否。)对于在某一特定文件里的词语t_{{i}}来说,它的重要性可表示为:

 

 以上式子中n_{{i,j}}是该词在文件d_{{j}}中的出现次数,而分母则是在文件d_{{j}}中所有字词的出现次数之和。

 

逆向文件频率(inverse document frequency,idf)是一个词语普遍重要性的度量。某一特定词语的idf,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取以10为底的对数得到:

其中

  • |D|:语料库中的文件总数
  • |\{j:t_{{i}}\in d_{{j}}\}|:包含词语t_{{i}}的文件数目(即n_{{i,j}}\neq 0的文件数目)如果词语不在数据中,就导致分母为零,因此一般情况下使用1+|\{j:t_{{i}}\in d_{{j}}\}|

然后

{\mathrm  {tf{}idf_{{i,j}}}}={\mathrm  {tf_{{i,j}}}}\times {\mathrm  {idf_{{i}}}}

某一特定文件内的高词语频率,以及该词语在整个文件集合中的低文件频率,可以产生出高权重的tf-idf。因此,tf-idf倾向于过滤掉常见的词语,保留重要的词语。

 

 

优缺点

TF-IDF的优点是简单快速,而且容易理解。缺点是有时候用词频来衡量文章中的一个词的重要性不够全面,有时候重要的词出现的可能不够多,而且这种计算无法体现位置信息,无法体现词在上下文的重要性。如果要体现词的上下文结构,那么你可能需要使用word2vec算法来支持。

示例代码

 

posted @ 2019-12-03 02:30  朱群喜_QQ囍_海疯习习  阅读(560)  评论(0编辑  收藏  举报
Map