摘要: NCut是一个比较老的开源代码了。所以在新的matlab的环境下老出各种bug。 经过自己的各种折腾,总结为一下几点: 1.保证matlab的mex是有C编译器可以用的,具体可以用 mex -setup来检查。 2.下载Ncut最新版的代码http://www.cis.upenn.edu/~jshi 阅读全文
posted @ 2016-11-22 13:22 kevinTien 阅读(364) 评论(0) 推荐(0) 编辑
摘要: I've recently got a problem. require 'cutorch' doesn't work. But it was ok yesterday, although I have tried to reinstall this package. It doesn't work 阅读全文
posted @ 2016-11-17 13:22 kevinTien 阅读(182) 评论(0) 推荐(0) 编辑
摘要: lua的很多语法跟matlab很像 最基本的赋值是一样的 循环和选择判断后面必须跟一个关键字:do和then for i =1,1,100 do ... end if … then … end table是lua的唯一一种数据结构,但是可以用它来构造数组、链表、字典等。 -- Dict litera 阅读全文
posted @ 2016-10-26 10:55 kevinTien 阅读(1118) 评论(0) 推荐(0) 编辑
摘要: dropout在前向神经网络中效果很好,但是不能直接用于RNN,因为RNN中的循环会放大噪声,扰乱它自己的学习。那么如何让它适用于RNN,就是只将它应用于一些特定的RNN连接上。 LSTM的长期记忆是存在memory cell中的。 The LSTM can decide to overwrite 阅读全文
posted @ 2016-10-26 10:50 kevinTien 阅读(5081) 评论(0) 推荐(0) 编辑
摘要: 人们对神经网络的误解,Bengio在2014年的NIPS上给大家解开了。 阅读全文
posted @ 2016-10-26 10:46 kevinTien 阅读(4575) 评论(0) 推荐(0) 编辑
摘要: Torch7 切片函数总结 阅读全文
posted @ 2016-10-26 10:35 kevinTien 阅读(3504) 评论(0) 推荐(0) 编辑
摘要: 使用随机梯度下降训练神经网络StochasticGradient是一个比较高层次的类,它接受两个参数,module和criterion,前者是模型结构,后者是损失函数的类型。这个类本身有一些参数:LearningRate: 这是学习率,不用多说LearningRateDecay: 学习率衰减,cur... 阅读全文
posted @ 2015-09-21 21:05 kevinTien 阅读(690) 评论(0) 推荐(0) 编辑
摘要: 1.序列化Torch提供4种高级方法来序列化或者反序列化任意Lua/Torch对象。这些方法都是从File对象抽象出来的,为了方便操作而创建。前两种方法用来从文件序列化或者反序列化的:torch.save(filename,object [, format])[object] torch.load(... 阅读全文
posted @ 2015-09-21 17:08 kevinTien 阅读(1186) 评论(0) 推荐(0) 编辑
摘要: 神经网络Package【目前还属于草稿版,等我整个学习玩以后会重新整理】模块Modulemodule定义了训练神经网络需要的所有基础方法,并且是可以序列化的抽象类。module有两种状态变量:output和gradInput[output] forward(input)利用input对象计算其对应的... 阅读全文
posted @ 2015-09-21 17:05 kevinTien 阅读(2782) 评论(0) 推荐(1) 编辑
摘要: Torch7 CmdLine 阅读全文
posted @ 2015-09-21 17:03 kevinTien 阅读(3512) 评论(0) 推荐(0) 编辑