摘要: 按照tamar的操作步骤,在uw-cse和webkb数据集上进行了实验,完成了前两个步骤,即:在只有谓词的空mln的基础上,进行了结构学习,生成了完整的mln,以备后用。但是程序跑的很慢,运行一次要几个小时,目前还没有跑出结果,但愿明天早上能给我个惊喜。12-9日工作安排:进行tamar实验的第三和第四个步骤:从uw-cse和webkb数据集向imdb数据集进行迁移学习,并利用迁移学习出的mln进行推断。注意,推断时要用MC-SAT算法(参数为-ms)。打羽毛球,锻炼身体如果实验跑的快的话,就计算出CLL。 阅读全文
posted @ 2010-12-08 22:19 centimeter 阅读(219) 评论(1) 推荐(0) 编辑
摘要: 稀里糊涂的竟然搞起了机器学习,不过既然做了就要做好。  这段时间读了很多关于迁移学习和马尔可夫逻辑网(markov logic network)的论文,其中比较重要的一篇文章是Lilyana Mihalkova的《Mapping and Revising Markov Logic Networks for Transfer Learning》,现在正在跑这篇文章附带的tamar(for Transfer via Automatic Mapping And Revision)系统,现简要总结一下该系统的使用步骤:1、利用源域的db文件和空的mln文件(其中包含所有的谓词),学习出源域的结构(le 阅读全文
posted @ 2010-12-08 18:35 centimeter 阅读(349) 评论(0) 推荐(0) 编辑
摘要: 为了便于以后查看,现将12月7日的工作总结如下:  今天完成的主要工作分为两个方面:  实验方面:学习了perl的一些关于文件的语法,写了几个简单的小程序,成功的完成了cora到imdb的迁移及推断。由于推断需要的时间较长,所以只先做了两三个谓词的推断,但是效果很不理想。预期的实验效果应该是这样的:对于原始的db文件中出现过的谓词,在预测的出的结果文件中应该表现出较高的概率,但是经实验发现,所有的基谓词的概率并没有明显的差别。  实验结果分析:这种结果的产生我认为主要有两种可能:一种是由于只跑了两三个谓词,所以结果不具有代表性,个别谓词的推断对整体性能不会造成太大打的影响。另一种可能是采用的推 阅读全文
posted @ 2010-12-08 18:23 centimeter 阅读(203) 评论(0) 推荐(0) 编辑