摘要: 1、 2、 3、 4、 5、 6、 阅读全文
posted @ 2017-12-19 21:13 yanganling 阅读(484) 评论(0) 推荐(0) 编辑
摘要: 一、输入层到卷积层的前向传播过程 输入可以是任意维度的张量,过程的公式可表示成如下: $a^2= \sigma(z^2) = \sigma(a^1*W^2 +b^2)$ 其中,上标表示层数,星号表示卷积,b为偏倚,$\sigma$表示激活函数。 这里需要我们自定义的参数有: 1、卷积核,比如有k个, 阅读全文
posted @ 2017-12-18 21:09 yanganling 阅读(587) 评论(0) 推荐(0) 编辑
摘要: CNN的结构: 卷积层和池化层可以灵活使用,卷积层和池化层后是全连接层。其中卷积层使用的激活函数是ReLU(x)$=max(0,x)$,全连接层就是DNN的结构,输出层使用了Softmax激活函数。 CNN中的卷积公式不是数学中严格意义上的卷积,CNN中一个二维的卷积公式为$s(i,j)=(X*W) 阅读全文
posted @ 2017-12-18 10:39 yanganling 阅读(1478) 评论(0) 推荐(0) 编辑
摘要: 大脑使用手册:学习如何学习——Coursera最火课程之一(上篇) 阅读全文
posted @ 2017-12-17 20:20 yanganling 阅读(40) 评论(0) 推荐(0) 编辑
摘要: Anaconda入门使用指南 阅读全文
posted @ 2017-12-17 16:27 yanganling 阅读(77) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-12-15 15:32 yanganling 阅读(47) 评论(0) 推荐(0) 编辑
摘要: 机器学习中的过拟合与规则化(解释了$L_0,L_1$ill-condition,和condition number)https://www.zhihu.com/question/35508851?sort=created L0范数是指向量中非0的元素的个数;L1范数是指向量中各个元素绝对值之和,也有 阅读全文
posted @ 2017-12-14 22:45 yanganling 阅读(83) 评论(0) 推荐(0) 编辑
摘要: 梯度下降小结 相关概念: 1、步长(Learning rate):步长决定了在梯度下降迭代的过程中,每一步沿梯度负方向前进的长度。 2、特征(feature):指的是样本中输入部分,比如样本($x_0,y_0$),($x_1,y_1$),则样本特征为x,样本输出为y。 3、假设函数(hypothes 阅读全文
posted @ 2017-12-10 16:55 yanganling 阅读(84) 评论(0) 推荐(0) 编辑
摘要: 空间中任意一点$x_0$到超平面S的距离公式: $ \frac {1} { ||w||} |w \bullet x_0 + b|$ 推导过程: 取点空间中一点$x_0$,,超平面S:$w \bullet x + b = 0$,其中$x_0$,w,x均为N维向量; 设点$x_0$到平面S的距离为d,点 阅读全文
posted @ 2017-12-08 20:39 yanganling 阅读(6511) 评论(1) 推荐(2) 编辑
摘要: 转https://www.cnblogs.com/xin-work-thoughts/archive/2011/06/07/2074566.html 阅读全文
posted @ 2017-12-08 16:49 yanganling 阅读(57) 评论(0) 推荐(0) 编辑