coursera 公开课 文本挖掘和分析(text mining and analytics) week 1 笔记

一、课程简介:

text mining and analytics 是一门在coursera上的公开课,由美国伊利诺伊大学香槟分校(UIUC)计算机系教授 chengxiang zhai 讲授,公开课链接:https://class.coursera.org/textanalytics-001/wiki/view?page=Programming_Assignments_Overview。

二、课程大纲:

三、课程主要内容

3.1 Text representation

可以从以下几个方面来对文本进行表示:

lexicon analysis 词汇分析

syntactic analysis 句法分析

semantic analysis 语义分析

pragmatic analysis 实用性分析

文本表示有很多种方法:Multiple ways of representing text are possible

 string, words, syntactic structures, entity-relation graphs, predicates…

这门公开课中,主要讨论word 层面的文本表示方法,word relation analysis,topic analysis,sentiment analysis.

3.2 word association mining and analysis

(1)word 之间有两种基本关系:Paradigmatic vs. Syntagmatic

Paradigmatic (词形没有变化)E.g., “cat” and “dog”; “Monday” and “Tuesday”
Syntagmatic:(组合关系) E.g., “cat” and “sit”; “car” and “drive”
这两种关系的研究在很多NLP任务中都有重要的意义,如:位置标注,语法分析(parsing),实体识别,词汇拓展。

(2)对这两种关系的挖掘方法:

Paradigmatic ,文本内容的相似性

Syntagmatic,文本同时出现的概率

(3)分别介绍下两种关系挖掘的方法

Paradigmatic Relation Discovery,相似词的发现
word context 表示:bag of word、vector space model (VSM)

 

 

计算向量之间的相似度:(EOWC)

总结:相似词的计算,步骤如下:

从文档中表示两个词的相关词袋;计算相关词袋向量的相似度;选取相似度最高的词。

在表示词向量的方法中,BM25+IDF是the state of art.

 

 Syntagmatic Relation Discovery: Entropy,组合关系的发现
熵:衡量变量X的随机性

条件熵:

 

升序排列取top-k生成候选集

互信息 mutual information :I(X; Y)= H(X) – H(X|Y) = H(Y)-H(Y|X),倒序取top-k生成候选集

KL-divergence :KL散度( Kullback–Leibler divergence),又称相对熵(relative entropy),是描述两个概率分布P和Q差异的一种方法。在信息论中,D(P||Q)表示当用概率分布Q来拟合真实分布P时,产生的信息损耗,其中P表示真实分布,Q表示P的拟合分布。

 

 

posted @ 2016-03-03 23:40  白婷  阅读(2529)  评论(0编辑  收藏  举报