LDA进阶(Dynamic Topic Models)
转自:http://blog.csdn.net/hxxiaopei/article/details/8034308
http://blog.csdn.net/huagong_adu/article/details/7937616
LDA浅析
http://www.slideshare.net/aurora1625/topic-model-lda-and-all-that
LDA漫游指南
http://yuedu.baidu.com/ebook/d0b441a8ccbff121dd36839a?pn=5&pa=44
LDA相关文章
http://blog.csdn.net/pirage/article/details/9467547
http://blog.csdn.net/yangliuy/article/details/8457329
yangliuy实现的代码
第一篇:PLSA及EM算法
第三篇:LDA变形模型-Twitter LDA,TimeUserLDA,ATM,Labeled-LDA,MaxEnt-LDA等
第四篇:基于变形LDA的paper分类总结(bibliography)
第五篇:LDA Gibbs Sampling 的JAVA实现
DTM(Dynamic Topic Models)进行主题演化实验
---------------------------------------------------------------------------------------------------------
在自己机器上(ubuntu12.04),运行Blei(http://www.cs.princeton.edu/~blei/topicmodeling.html)的代码过程中,能正常编译,
但是运行却遇到 段错误的问题。
在网上找了很多blog和资料都没有解决
最后决定自己调试错误,用了用gdb调试工具,
最后在实验室罗师兄的帮助下,解决了这个困扰了很久的问题。
main 文件39行:
代码问题终于得以解决。。。。。。
--------------------------------------------------------------------------------------------------------------------------------------
以下参考自:http://www.cnblogs.com/todoit/p/4057619.html
程序中dtm/sample.sh文件说明
运行例子试验
(1)输入文件(如dtm/example文件夹所示)test-mult.dat和test-seq.dat
a:foo-mult.dat,(相当于例子中test-mult.dat)用来表示文档和词的关系
每个文档一行,每一行形式是: unique_word_count index1:count1 index2:count2 ... indexn:counnt
该文章的总词数(不重复) 词1编号(用数字表示编号):词1频次 词2编号:词2频次 词n编号:词n频次
例如:11 288:1 1248:1 5:1 1063:2 269:1 654:1 656:2 532:1 373:1 1247:1 543:1
表示这篇一共有11个不重复的词,第228个词出现1次,1248个词出现1次,这些词是所有文档中统一编号的。
需要注意的一点是:该文件中文档是按时间顺序排列的,时间最早的在最上面,时间最晚的在最下面。
文件格式如下:
Number_Timestamps(时间窗总数)
number_docs_time_1(第一个时间窗的文档数,就是从第一个到第几个文档划分到第一个时间窗,我们如果按年来划分,就把每年的文档数写到这里就行)
...
number_docs_time_i
...
number_docs_time_NumberTimestamps
作者提供的例子,第一行表示分为10个时间窗,第二行表示第一个时间窗有25个文档。(看样子估计也是按年划分的):
10
25
50
75
100
100
100
100
125
150
175
当上面两个文件搞定后。作者说还有两个文件虽然不是必须的,但是也是很有用的。
C: 词典文件
文档集合中涉及的所有的词,按照上面的词的序号排列。
d:文档信息文件
每行表示一个文档的基本信息,按照文档a中的顺序排列。
上述文件都可以用text2ldac生成,在https://github.com/JoKnopp/text2ldac下载,用python打开。
使用方法,在命令行中,找到text2ldac.py目录,运行 python text2ldac.py -o ./out -e txt ./in
out文件夹为输出文件位置,in文件夹为输入文件位置。 txt为仅处理txt文件
(2)运行程序
作者在readme文件中说,通过运行./main --help命令可以查看所有选项和解释
输入下面的命令(后面的注释是自己加的,。如果影响运行请去掉)
./main \ /*main函数*/
--ntopics=20 \ /*每个时间窗生成20个主题*/
--mode=fit \ /*这个应该有dim和fit两个选项*/
--rng_seed=0 \
--initialize_lda=true \
--corpus_prefix=example/test \
--outname=example/model_run \
--top_chain_var=0.005 \
--alpha=0.01 \
--lda_sequence_min_iter=6 \
--lda_sequence_max_iter=20 \
--lda_max_em_iter=10
(2)输出结果。 上面文件完成之后,通过运行程序生成下面的文件,并且可以通过R查看结果,我们就可以用这个结果进行分析。
a topic-???-var-e-log-prob.dat:
主要是 e-betas(词在每个主题内每个时间段的分布),一行是一个词。
从文件中,我们看以看到每行只有一个数字。
由输入可知:
有4824个单词的词典。
有10个时间戳
生成20个主题
a = "topic-002-var-e-log-prob.dat"
b = matrix(a, ncol = 10 byrow=TRUE)
10列,按行排(本例中表示4824行,10列的矩阵)
The probability of term 100 in topic 2 at time 3:
exp(b[100,3])
可以在dtm\example\model_run\lda-seq中看到例子,有48240行,有4824个词,每个时间窗内有4824个词。
作者同时给出了在R中查看这些矩阵的方法。比如查看某个词在某个主题的某一个时间段的概率。
b gam.dat
gammas数据。表示文档与主题的关联。
http://www.cnblogs.com/todoit/p/3753871.html