Fork me on GitHub

  2013年7月29日
摘要: 微博上关于LDA和PLSA的讨论【转】 (2012-10-14 17:25:04)转载▼标签:cvmlldaplsa杂谈分类:CV自己对PLSA和LDA从来没去仔细的推导和实现过,资质太差,也没专门拿出时间来去搞。最近理解了一下,已经没多么的难了。打算最近写个自己理解、推导、代码、例子。偶然看见微博上余凯、张栋等人关于这个问题的探讨,摘录下来,为自己以后对这两个模型做推导或者实现的时候,有些指导的意义:(如果您不愿意我将您的观点记录再次,那么给我说,我去掉,我只是觉得,在我自己还没有理解和观点的情况下,这些对我有指导意义)===@老师木PCA,及其差不多等价的LSI, pLSI, LDA(to 阅读全文
posted @ 2013-07-29 13:44 huashiyiqike 阅读(380) 评论(0) 推荐(0) 编辑
摘要: 2011-04-10 19:54:46|分类:app store|字号订阅基于LDA的Topic Model变形最近几年来,随着LDA的产生和发展,涌现出了一批搞Topic Model的牛人。我主要关注了下面这位大牛和他的学生:David M. BleiLDA的创始者,04年博士毕业。一篇关于Topic Model的博士论文充分体现其精深的数学概率功底;而其自己实现的LDA又可体现其不俗的编程能力。说人无用,有论文为证:J. Chang and D. Blei. Relational Topic Models for Document Networks. Artificial Intellig 阅读全文
posted @ 2013-07-29 09:12 huashiyiqike 阅读(223) 评论(0) 推荐(0) 编辑
摘要: IJCAI (1+): AI最好的综合性会议, 1969年开始, 每两年开一次, 奇数年开. 因为AI 实在太大, 所以虽然每届基本上能录100多篇(现在已经到200多篇了),但分到每个领域就没几篇了,象machine learning、computer vision这么大的领域每次大概也就10篇左右, 所以难度很大. 不过从录用率上来看倒不太低,基本上20%左右, 因为内 行人都会掂掂分量, 没希望的就别浪费reviewer的时间了. 最近中国大陆投往国际会议的文章象潮水一样, 而且因为国内很少有能自己把关的研究组, 所以很多会议都在complain说中国的低质量文章严重妨碍了PC的工作效率 阅读全文
posted @ 2013-07-29 09:11 huashiyiqike 阅读(238) 评论(0) 推荐(0) 编辑