Youth

TF-IDF具体算法和原理

TF-IDF算法

相关概念

  • 信息检索(IR)中最常用的一种文本关键信息表示法

  • 基本信息:

    • 如果某个词在一篇文档中出现的频率高,并且在语料库中其它词库中其他文档中很少出现,则认为这个词具有很好的类别区分能力。
  • 词频TF:Term Frequency,衡量一个term在文档中出现的有多频繁

    • 平均而言,出现越频繁的词,其重要性可能就越高
  •  考虑到文章长度的差异,需要对词频做标准化

    • TF(t) = (t出现在文档中的次数) / (文档中的term总数)
    • TF(t) = (t出现在文档中的次数) / (文档中出现最多的term)
  • 逆文档频率IDF:Inverse Document Frequency,用于模拟在该语料的实际使用环境中,某一个term有多重要。

    • 有些词到处都出现,但是明显没什么卵用。比如各种停用词,过渡句用词之类的。所以只看TF是没什么用的。
    • 因此把罕见的词的重要性(weight)提高,把常见词的重要性降低。
  • IDF的具体算法:

    • IDF(t) = log(语料库中的文档总数 / (含有该term的文档总数+1 ))
      • 加1是为了防止某term出现0次,导致结果无法计算。
  • TF-IDF = TF * IDF(相乘

    • TF-IDF与一个词在文档中的出现次数成正比
    • 与该词在整个语料中的出现次数成反比

  • 缺点:
    • 简单快速
    • 结果也比较符合实际情况
  • 缺点:

    • 单纯以“词频”衡量一个词的重要性,不够全面,有时重要的词可能出现次数并不多

    • 无法考虑词与词之间的相互关系

    • 这种算法无法体现词的位置信息,出现位置靠前的词语出现位置靠后的词,都被视为重要性相同,这是不正确的

      • 一种解决方法是:对全文的第一段和每一段的第一句话,给与较大的权重。

  TF(Term Frequency,缩写为TF)也就是词频啦,即一个词在文中出现的次数,统计出来就是词频TF,显而易见,一个词在文章中出现很多次,那么这个词肯定有着很大的作用,但是我们自己实践的话,肯定会看到你统计出来的TF 大都是一些这样的词:‘的’,‘是’这样的词,这样的词显然对我们的分析和统计没有什么帮助,反而有的时候会干扰我们的统计,当然我们需要把这些没有用的词给去掉,现在有很多可以去除这些词的方法,比如使用一些停用词的语料库等。

 

  假设我们把它们都过滤掉了,只考虑剩下的有实际意义的词。这样又会遇到了另一个问题,我们可能发现"中国"、"蜜蜂"、"养殖"这三个词的出现次数一样多。这是不是意味着,作为关键词,它们的重要性是一样的?

  显然不是这样。因为"中国"是很常见的词,相对而言,"蜜蜂"和"养殖"不那么常见。如果这三个词在一篇文章的出现次数一样多,有理由认为,"蜜蜂"和"养殖"的重要程度要大于"中国",也就是说,在关键词排序上面,"蜜蜂"和"养殖"应该排在"中国"的前面。

  所以,我们需要一个重要性调整系数,衡量一个词是不是常见词。如果某个词比较少见,但是它在这篇文章中多次出现,那么它很可能就反映了这篇文章的特性,正是我们所需要的关键词。

  用统计学语言表达,就是在词频的基础上,要对每个词分配一个"重要性"权重。最常见的词("的"、"是"、"在")给予最小的权重,较常见的词("中国")给予较小的权重,较少见的词("蜜蜂"、"养殖")给予较大的权重。这个权重叫做"逆文档频率"(Inverse Document Frequency,缩写为IDF),它的大小与一个词的常见程度成反比。

  知道了"词频"(TF)和"逆文档频率"(IDF)以后,将这两个值相乘,就得到了一个词的TF-IDF值。某个词对文章的重要性越高,它的TF-IDF值就越大。所以,排在最前面的几个词,就是这篇文章的关键词

 

  给出具体的公式:

 

  考虑到文章有长短之分,为了便于不同文章的比较,进行"词频"标准化。

 

 

 

 

  或者

 

 

 

 

  2.计算逆文档频率IDF

  需要一个语料库(corpus),用来模拟语言的使用环境。

 

 

 

 

  如果一个词越常见,那么分母就越大,逆文档频率就越小越接近0。分母之所以要加1,是为了避免分母为0(即所有文档都不包含该词)。log表示对得到的值取对数。

  3.计算TF-IDF

 

 

 

  可以看到,TF-IDF与一个词在文档中的出现次数成正比,与该词在整个语言中的出现次数成反比。所以,自动提取关键词的算法就很清楚了,就是计算出文档的每个词的TF-IDF值,然后按降序排列,取排在最前面的几个词。

 

  还是以《中国的蜜蜂养殖》为例,假定该文长度为1000个词,"中国"、"蜜蜂"、"养殖"各出现20次,则这三个词的"词频"(TF)都为0.02。然后,搜索Google发现,包含"的"字的网页共有250亿张,假定这就是中文网页总数。包含"中国"的网页共有62.3亿张,包含"蜜蜂"的网页为0.484亿张,包含"养殖"的网页为0.973亿张。则它们的逆文档频率(IDF)和TF-IDF如下:

 

 

 

  从上表可见,"蜜蜂"的TF-IDF值最高,"养殖"其次,"中国"最低。(如果还计算"的"字的TF-IDF,那将是一个极其接近0的值。)所以,如果只选择一个词,"蜜蜂"就是这篇文章的关键词。

  除了自动提取关键词,TF-IDF算法还可以用于许多别的地方。比如,信息检索时,对于每个文档,都可以分别计算一组搜索词("中国"、"蜜蜂"、"养殖")的TF-IDF,将它们相加,就可以得到整个文档的TF-IDF。这个值最高的文档就是与搜索词最相关的文档。

  TF-IDF算法的优点是简单快速,结果比较符合实际情况。缺点是,单纯以"词频"衡量一个词的重要性,不够全面,有时重要的词可能出现次数并不多。而且,这种算法无法体现词的位置信息,出现位置靠前的词与出现位置靠后的词,都被视为重要性相同,这是不正确的。(一种解决方法是,对全文的第一段和每一段的第一句话,给予较大的权重。)

TF-IDF的具体实现

  jieba,NLTK,sklearn,gensim等程序包都可以实现TF-IDF的计算。除算法细节上有差异外,更多的是数据输入/输出格式上的不同。

使用jieba实现TD-IDF算法

  输出结果会自动按照TF-IDF值降序排列,并且直接给出的是词条而不是字典ID,便于阅读使用。

  可在计算TF-IDF时直接完成分词,并使用停用词表和自定义词库,非常方便。(直接传入句子,不需要提前切分词)

  有默认的IDF语料库,可以不训练模型,直接进行计算

  以单个文本为单位进行分析。

  jieba核心是拿到关键词本身

  

jieba.analyse.extract_tags(

sentence 为待提取的文本
topK = 20 : 返回几个 TF/IDF 权重最大的关键词
withWeight = False : 是否一并返回关键词权重值
allowPOS = () : 仅包括指定词性的词,默认值为空,即不筛选
)
jieba.analyse.set_idf_path(file_name)

 

 

jieba.analyse.set_stop_words(file_name)

关键词提取时使用自定义停止词(Stop Words)语料库 

劳动防护 13.900677652

生化学 13.900677652

奥萨贝尔 13.900677652

奧薩貝爾 13.900677652

考察队员 13.900677652

jieba.analyse.TFIDF(idf_path = None)

新建 TFIDF模型实例
idf_path : 读取已有的TFIDF频率文件(即已有模型)
使用该实例提取关键词:TFIDF实例.extract_tags()
# 使用jieba提取关键词,
import jieba
import jieba.analyse

# 注意:函数时在使用默认的TFIDF模型进行分析
t = jieba.analyse.extract_tags(chapter.txt[1])
print(t)  
# ['杨铁心', '包惜弱', '郭啸天', '颜烈', '丘处机', '武官', '杨二人', '官兵', ...]
print("返回权重值")
# 要求返回权重值
t = jieba.analyse.extract_tags(chapter.txt[1],withWeight=True)
print(t)
# [('杨铁心', 0.21886511509515091), ('包惜弱', 0.1685852913570757), ('郭啸天', 0.09908082913091291),...]

按照关键词评分的重要性排序的结果。

  t = jieba.analyse.extract_tags(chapter.txt[1])
  print(t)  
  # ['杨铁心', '包惜弱', '郭啸天', '颜烈', '丘处机', '武官', '杨二人', '官兵', ...]
 

如果想要进一步知道关键词的具体评分值,加上withWeight=True

  # 要求返回权重值
  t = jieba.analyse.extract_tags(chapter.txt[1],withWeight=True)
  print(t)
  # [('杨铁心', 0.21886511509515091), ('包惜弱', 0.1685852913570757), ('郭啸天', 0.09908082913091291),...]


应用自定义词典改善分词效果
# 应用自定义词典改善分词效果
jieba.load_userdict('金庸小说词库.txt') # dict为自定义词典的路径

# 在TFIDF计算中直接应用停用词表
jieba.analyse.set_stop_words('停用词.txt')

Tfres = jieba.analyse.extract_tags(chapter.txt[1],withWeight=True)
print(Tfres[:10])
# [('杨铁心', 0.24787133516800222), ('包惜弱', 0.1909279203321098), ('郭啸天', 0.11221202335308209)...]

 

 使用自定义的TFIDF频率文件

#-------------------------------------------------------------------------------------------------
# 结巴分词有一个默认的TFIDF权重表,或者说有一个现成的模型,可以用该模型直接用于这个语料的计算中。但是这样的准确率不高

# 正确的做法是:我们应该把射雕英雄传全书拿来,做出一个TFIDF的权重频率模型,然后把它读进来,
# 如下,我们是用自定义的TFIDF频率文件‘idf.txt.big’

# 使用自定义TFIDF频率文件
jieba.analyse.set_idf_path('idf.txt.big')
TFres1 = jieba.analyse.extract_tags(chapter.txt[1],withWeight=True)
print('使用自定义TFIDF频率文件')
print(TFres1[:10])
# [('杨铁心', 0.24787133516800222), ('包惜弱', 0.1909279203321098), ('郭啸天', 0.11221202335308209)...]

 

使用sklearn实现TF-IDF算法

sklearn输出格式为矩阵,直接为后续的sklearn建模服务
需要先使用背景语料库进行模型训练。
结果给出的是字典ID而不是具体的词条,直接阅读比较困难
class sklearn.feature_extraction.text.TfidfTransformer()
参数基本和上面一样

 

# 使用sklearn实现TD-IDF算法

'''
sklearn输出格式为矩阵,直接为后续的sklearn建模服务
需要先使用背景语料库进行模型训练。
结果给出的是字典ID而不是具体的词条,直接阅读比较困难
class sklearn.feature_extraction.text.TfidfTransformer()
参数基本和上面一样
'''

from sklearn.feature_extraction.text import TfidfTransformer

# sklearn不能直接切中文句子,所以我们需要提前做好分词,用空格分开 ,(取前5章)
txtlist = [" ".join(m_cut(w)) for w in chapter.txt.iloc[:5]]

vectorizer = CountVectorizer()

X = vectorizer.fit_transform(txtlist)# 将文本中的词语转换为词频矩阵

transformer = TfidfTransformer()

tfifd = transformer.fit_transform(X) #基于词频矩阵X计算TF-IDF值
print("*"*100)
print(tfifd)
'''
(0, 11621)    0.0056535238362054275
  (0, 11614)    0.0056535238362054275
  (0, 11613)    0.0056535238362054275
  (0, 11612)    0.010775737599046372
  .........
'''


print("*"*100)
t = tfifd.toarray()
print(t)
'''
[[0.         0.         0.         ... 0.00565352 0.         0.        ]
 [0.         0.         0.         ... 0.         0.         0.        ]
 [0.01961759 0.         0.         ... 0.         0.         0.        ]
 [0.         0.00666239 0.         ... 0.         0.         0.        ]
 [0.         0.         0.00652369 ... 0.         0.00652369 0.00652369]]
'''

print("*"*100)
# 将稀疏矩阵转换为标准矩阵
t = tfifd.todense()
print(t)
'''
[[0.         0.         0.         ... 0.00565352 0.         0.        ]
 [0.         0.         0.         ... 0.         0.         0.        ]
 [0.01961759 0.         0.         ... 0.         0.         0.        ]
 [0.         0.00666239 0.         ... 0.         0.         0.        ]
 [0.         0.         0.00652369 ... 0.         0.00652369 0.00652369]]
'''


print(t.shape)
#(5, 11624)

print("字典长度:",len(vectorizer.vocabulary_))
# 字典长度: 11624
print("字典:")
print(vectorizer.vocabulary_)
'''
{'第一回': 8722, '风雪': 11320, '惊变': 5284, '钱塘江': 10872, '浩浩': 7520, '江水': 7363, '日日夜夜': 6537, ....
显然,直接阅读的话,很难,这只是方便下一步的建模
'''

 

使用gensim实现TF-IDF算法

  输出格式为list,目的也是为后续的建模分析服务。

  需要先使用背景语料库进行模型训练。

  结果中给出的是字典ID,而不是具体的词条(jieba给出的是具体词条),直接阅读结果比较困难。

  

# 使用gensim实现TF-IDF算法
'''
输出格式为list, 目的也是为了后续的建模服务
需要先使用背景语料库进行模型训练
结果中给出的是字典ID,而不是具体词条,直接阅读比较困难

'''

# 文档分词以及预处理 (取前5章)   gensim可以直接使用切好的分词列表(list),而不必用空格隔开
chaplist = [m_cut(w) for w in chapter.txt.iloc[:5]]
print("*"*100)
print(chaplist)
# [['第一回', '风雪', '惊变', '钱塘江', '浩浩', '江水', '日日夜夜', '无穷', '无休', '浙...
#导入2个模块,一个是语料库,一个是建模的
from gensim import corpora, models

# 生成文档对应的字典和bow稀疏向量
dictionary = corpora.Dictionary(chaplist)
# 语料库  将chaplist中每个成员都转为bow稀疏向量
corpus = [dictionary.doc2bow(text) for text in chaplist] #仍为 list in list
print("&"*100)
print(corpus)
# [词ID,词频]   直接阅读很难受
# [[(0, 1), (1, 32), (2, 1), (3, 1), (4, 1), (5, 1), (6, 1), (7, 1),...]]

# 建模
# 针对corpus建立TD-IDF模型,这是个总模型,包含了对整个文档建模的背景信息
tfifd_model = models.TfidfModel(corpus)

# 对所需文档计算TF-IDF结果   用刚刚建立的tfidf_model模型对corpus语料进行计算
corpus_tfidf = tfifd_model[corpus]

print("*"*100)
print(corpus_tfidf)
# <gensim.interfaces.TransformedCorpus object at 0x1F5554C0>

# 列出所需文档的TF-IDF计算结果   输出第四章结果
t = corpus_tfidf[3]
print(t)
# List结果,,[词ID,词权重]
# [(11, 0.00404720107824102), (12, 0.003535871261991013), (13, 0.0017679356309955065),

# 列出字典内容
# 这样可以根据词ID,来对应上面的TF-IDF计算结果
print(dictionary.token2id)
# {'一两天': 0, '一个': 1, '一个个': 2, '一个二十': 3, '一个多': 4, '一个月': 5, '一了百了': 6, '一事无成': 7, '一人': 8, '一件': 9,

 

 

 

 

posted @ 2020-10-14 23:09  lishuaics  阅读(4646)  评论(0编辑  收藏  举报