1 2 3 4 5 ··· 12 下一页

2018年11月24日

attention 介绍

摘要: 前言 这里学习的注意力模型是我在研究image caption过程中的出来的经验总结,其实这个注意力模型理解起来并不难,但是国内的博文写的都很不详细或说很不明确,我在看了 attention-mechanism后才完全明白。得以进行后续工作。 这里的注意力模型是论文 Show,Attend and 阅读全文

posted @ 2018-11-24 08:56 alexanderkun 阅读(4481) 评论(0) 推荐(0) 编辑

2018年7月11日

卷积神经网络中的channel 和filter

摘要: 在深度学习的算法学习中,都会提到 channels 这个概念。在一般的深度学习框架的 conv2d 中,如 tensorflow 、mxnet,channels 都是必填的一个参数。 channels 该如何理解?先看一看不同框架中的解释文档。 首先,是 tensorflow 中给出的,对于输入样本 阅读全文

posted @ 2018-07-11 16:00 alexanderkun 阅读(17921) 评论(0) 推荐(2) 编辑

2017年12月30日

滤波和卷积

摘要: 图像处理中滤波和卷积是常用到的操作。很多人认为卷积就是滤波,两者并无区别,其实不然。两者在原理上相似,但是在实现的细节上存在一些区别。这篇博文主要叙述这两者之间的区别。 1、滤波(或者叫相关) 简单来说,滤波操作就是图像对应像素与掩膜(mask)的乘积之和。 比如有一张图片和一个掩膜,如下图: 简单 阅读全文

posted @ 2017-12-30 11:05 alexanderkun 阅读(1739) 评论(0) 推荐(0) 编辑

最容易理解的对卷积(convolution)的解释

摘要: 啰嗦开场白 读本科期间,信号与系统里面经常讲到卷积(convolution),自动控制原理里面也会经常有提到卷积。硕士期间又学了线性系统理论与数字信号处理,里面也是各种大把大把卷积的概念。至于最近大火的深度学习,更有专门的卷积神经网络(Convolutional Neural Network, CN 阅读全文

posted @ 2017-12-30 10:57 alexanderkun 阅读(52818) 评论(3) 推荐(14) 编辑

2017年12月25日

随机梯度下降

摘要: 本文介绍了机器学习中基本的优化算法—梯度下降算法和随机梯度下降算法,以及实际应用到线性回归、Logistic回归、矩阵分解推荐算法等ML中。 梯度下降算法基本公式 常见的符号说明和损失函数 X :所有样本的特征向量组成的矩阵 x(i) 是第i个样本的包含的所有特征组成的向量x(i)=(x(i)1,x 阅读全文

posted @ 2017-12-25 11:41 alexanderkun 阅读(925) 评论(0) 推荐(0) 编辑

2017年12月24日

optimizer

摘要: 在很多机器学习和深度学习的应用中,我们发现用的最多的优化器是 Adam,为什么呢? 下面是 TensorFlow 中的优化器, https://www.tensorflow.org/api_guides/python/train 在 keras 中也有 SGD,RMSprop,Adagrad,Ada 阅读全文

posted @ 2017-12-24 23:06 alexanderkun 阅读(632) 评论(0) 推荐(0) 编辑

一个深度学习的例子

摘要: 主题介绍:使用 TensorFlow,可以将深度机器学习从一个研究领域转变成一个主流的软件工程方法。在这个视频中,Martin Görner 演示了如何构建和训练一个用于识别手写数字的神经网络。在这个过程中,他将描述一些在神经网络设计中所使用的权衡技巧,最后他将使得其模型的识别准确度超过 99%。本 阅读全文

posted @ 2017-12-24 22:43 alexanderkun 阅读(14484) 评论(1) 推荐(1) 编辑

Batch_Size 详解

摘要: Batch_Size(批尺寸)是机器学习中一个重要参数,涉及诸多矛盾,下面逐一展开。 首先,为什么需要有 Batch_Size 这个参数? Batch 的选择,首先决定的是下降的方向。如果数据集比较小,完全可以采用全数据集 ( Full Batch Learning )的形式,这样做至少有 2 个好 阅读全文

posted @ 2017-12-24 22:14 alexanderkun 阅读(53710) 评论(1) 推荐(2) 编辑

softmax函数详解

摘要: 答案来自专栏:机器学习算法与自然语言处理 详解softmax函数以及相关求导过程 这几天学习了一下softmax激活函数,以及它的梯度求导过程,整理一下便于分享和交流。 softmax函数 softmax用于多分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多 阅读全文

posted @ 2017-12-24 18:12 alexanderkun 阅读(148204) 评论(5) 推荐(17) 编辑

2017年12月23日

Must Know Tips/Tricks in Deep Neural Networks

摘要: Must Know Tips/Tricks in Deep Neural Networks (by Xiu-Shen Wei) Deep Neural Networks, especially Convolutional Neural Networks (CNN), allows computati 阅读全文

posted @ 2017-12-23 23:00 alexanderkun 阅读(597) 评论(0) 推荐(0) 编辑

1 2 3 4 5 ··· 12 下一页

导航