随笔分类 -  机器学习

摘要:同步自我的知乎专栏文章:https://zhuanlan.zhihu.com/p/32135185 从Slerp说起 ICLR'2017的投稿里,有一篇很有意思但被拒掉的投稿《Sampling Generative Networks》 by Tom White。文章比较松散地讲了一些在latent 阅读全文
posted @ 2017-12-26 21:07 達聞西 阅读(7226) 评论(0) 推荐(2) 编辑
摘要:同步自我的知乎专栏:https://zhuanlan.zhihu.com/p/27343585 本文完整代码地址:Generative Adversarial Networks (GANs) with 2D Samples 50行GAN代码的问题 Dev Nag写的50行代码的GAN,大概是网上流传 阅读全文
posted @ 2017-06-15 09:17 達聞西 阅读(5666) 评论(0) 推荐(2) 编辑
摘要:模型融合 有的时候我们手头可能有了若干个已经训练好的模型,这些模型可能是同样的结构,也可能是不同的结构,训练模型的数据可能是同一批,也可能不同。无论是出于要通过ensemble提升性能的目的,还是要设计特殊作用的网络,在用Caffe做工程时,融合都是一个常见的步骤。 比如考虑下面的场景,我们有两个模 阅读全文
posted @ 2017-04-09 12:38 達聞西 阅读(8275) 评论(31) 推荐(1) 编辑
摘要:同步自我的知乎专栏:https://zhuanlan.zhihu.com/p/26122612 上篇文章 瞎谈CNN:通过优化求解输入图像 - 知乎专栏 中提到过对抗样本,这篇算是针对对抗样本的一个小小扩充:用Fast Gradient Sign方法在Caffe中生成对抗样本。 本文代码的完整例子可 阅读全文
posted @ 2017-04-01 19:17 達聞西 阅读(3558) 评论(0) 推荐(1) 编辑
摘要:本文同步自我的知乎专栏: From Beijing with Love 机器学习和优化问题 很多机器学习方法可以归结为优化问题,对于一个参数模型,比如神经网络,用来表示的话,训练模型其实就是下面的参数优化问题: 其中L是loss function,比如神经网络中分类常用的cross-entropy。 阅读全文
posted @ 2017-03-11 08:52 達聞西 阅读(1938) 评论(0) 推荐(2) 编辑
摘要:源自知乎的一个答案,网上很多关于PCA的文章,不过很多都只讲到了如何理解方差的投影,却很少有讲到为什么特征向量就是投影方向。本文从形象角度谈一谈,因为没有证明,所以不会严谨,但是应该能够帮助形象理解PCA背后的原理。 一、先从旋转和缩放角度,理解一下特征向量和特征值的几何意义 从定义来理解特征向量的 阅读全文
posted @ 2016-10-05 10:59 達聞西 阅读(30840) 评论(0) 推荐(3) 编辑
摘要:源自知乎的一个 "答案" 信息论中,熵代表着根据信息的概率分布对信息编码所需要的最短平均编码长度。 举个简单的例子来理解一下这件事情:假设有个考试作弊团伙,需要连续不断地向外传递4选1单选题的答案。直接传递ABCD的ascii码的话,每个答案需要8个bit的二进制编码,从传输的角度,这显然有些浪费。 阅读全文
posted @ 2016-10-05 10:22 達聞西 阅读(7060) 评论(1) 推荐(0) 编辑
摘要:2017 02 22,Update: 鉴于这篇文章反馈很多,有部分读者照着这篇文章步骤的读者跑不通来咨询,因为这篇里代码是分散写的很容易漏掉步骤,如果完全按照文章是可以重现的,如果还是不能重现,有个简化后的例子,全部代码在这里: "https://github.com/frombeijingwith 阅读全文
posted @ 2016-03-30 19:20 達聞西 阅读(26465) 评论(52) 推荐(5) 编辑