摘要: bn是拉平各个feature的差异,而l2 norm是拉平各个样本的差异,本来各个样本的模长千变万化,按照距离的概念,差别是很大的,但是l2 norm后,距离就变得有一个上界了,显然样本间差异变小了。而对于各个feature,本来各个feature的量级都可能不一样,方差也就不一样,bn让方差为1, 阅读全文
posted @ 2018-04-28 00:08 木易修 阅读(1029) 评论(0) 推荐(0) 编辑
摘要: 转自:https://zhuanlan.zhihu.com/p/22260935 本文收录在无痛的机器学习第一季。 写在前面,这篇文章的原创性比较差,因为里面聊的已经是老生长谈的事情,但是为了保持对CNN问题的完整性,还是把它单独拿出来写一篇了。已经知道的童鞋可以忽略,没看过的童鞋可以来瞧瞧。 这次 阅读全文
posted @ 2018-04-25 06:04 木易修 阅读(353) 评论(0) 推荐(0) 编辑
摘要: 著名CV数据集 http://www.cvpapers.com/datasets.html 阅读全文
posted @ 2018-03-30 14:38 木易修 阅读(159) 评论(0) 推荐(0) 编辑
摘要: 1.附加数据库 1 EXEC sp_attach_single_file_db @dbname= 'GroupData1_Data' , @physname= '/media/disk4/share/DataSet/QunData/GroupData1_Data.MDF' 2 EXEC sp_att 阅读全文
posted @ 2018-03-07 13:24 木易修 阅读(5909) 评论(7) 推荐(0) 编辑
摘要: 1.列举常见的一些范数及其应用场景,如L0,L1,L2,L∞,Frobenius范数 答:p39-p40 ;还有p230-p236有regularization的应用 2.简单介绍一下贝叶斯概率与频率派概率,以及在统计中对于真实参数的假设。 答:p55 3.概率密度的万能近似器 答:p67:3.10 阅读全文
posted @ 2018-03-03 10:56 木易修 阅读(2155) 评论(2) 推荐(0) 编辑
摘要: 1.1.2 Building basic functions with numpy 1.1.2.2 numpy.exp, sigmoid, sigmoid gradient 1.1.2.3 numpy.reshape(), numpy.shape 1.1.2.4 Normalizing rows n 阅读全文
posted @ 2018-02-22 01:26 木易修 阅读(1912) 评论(0) 推荐(0) 编辑
摘要: (Stanford)69G大规模无人机(校园)图像数据集【Stanford】 http://cvgl.stanford.edu/projects/uav_data/ 人脸素描数据集【CUHK】 http://mmlab.ie.cuhk.edu.hk/archive/facesketch.html 自 阅读全文
posted @ 2018-02-01 17:36 木易修 阅读(1244) 评论(0) 推荐(0) 编辑
摘要: 转自http://mp.weixin.qq.com/s?__biz=MzU0NTAyNTQ1OQ==&mid=2247485402&idx=2&sn=d4c0d65b75ebca219397cf2263ca480a&chksm=fb727b06cc05f21082d6e469496e71559744 阅读全文
posted @ 2018-02-01 17:35 木易修 阅读(2987) 评论(0) 推荐(0) 编辑
摘要: pip国内的一些镜像 阿里云 http://mirrors.aliyun.com/pypi/simple/ 中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/ 豆瓣(douban) http://pypi.douban.com/simple/ 清华大学 h 阅读全文
posted @ 2018-02-01 14:36 木易修 阅读(291) 评论(0) 推荐(0) 编辑
摘要: 在CMakeLists.txt中,要对某些子文件夹全部进行编译则使用 那如果在examples文件夹中建立了某个目录如examples/venv,此时venv中的内容不需要被编译,那么在CMakeLists.txt中应修改如下: 阅读全文
posted @ 2018-02-01 02:18 木易修 阅读(5386) 评论(0) 推荐(0) 编辑