随笔分类 -  Deep Learning--神经网络

摘要:在CNN中,转置卷积是一种上采样(up-sampling)的常见方法.如果你不清楚转置卷积是怎么操作的,那么就来读读这篇文章吧. 上采样的需要 在我们使用神经网络的过程中,我们经常需要上采样(up-sampling)来提高低分辨率图片的分辨率. 上采样有诸多方法,举例如下. 最近邻插值(Neares 阅读全文
posted @ 2021-04-28 13:54 Chen洋 阅读(690) 评论(0) 推荐(1) 编辑
摘要:神经网络中激活函数的真正意义?一个激活函数需要具有哪些必要的属性?还有哪些属性是好的属性但不必要的?1. 非线性:即导数不是常数。这个条件是多层神经网络的基础,保证多层网络不退化成单层线性网络。这也是激活函数的意义所在。2. 几乎处处可微:可微性保证了在优化中梯度的可计算性。传统的激活函数如sigm 阅读全文
posted @ 2021-04-28 11:30 Chen洋 阅读(617) 评论(0) 推荐(0) 编辑
摘要:先来说一下这几者之间的关系:人工智能包含机器学习,机器学习包含深度学习(是其中比较重要的分支)。深度学习源自于人工神经网络的研究,但是并不完全等于传统神经网络。所以深度学习可以说是在传统神经网络基础上的升级。神经网络一般有输入层->隐藏层->输出层,一般来说隐藏层大于2的神经网络就叫做深度神经网络, 阅读全文
posted @ 2020-11-03 19:38 Chen洋 阅读(1832) 评论(0) 推荐(0) 编辑
摘要:1、什么是 softmax 机器学习总归是要接触到 softmax 的,那么这个东东倒底是怎么来的呢?对于熟悉机器学习或神经网络的读者来说,sigmoid与softmax两个激活函数并不陌生,但这两个激活函数在逻辑回归中应用,也是面试和笔试会问到的一些内容,掌握好这两个激活函数及其衍生的能力是很基础 阅读全文
posted @ 2020-11-03 18:13 Chen洋 阅读(5556) 评论(0) 推荐(0) 编辑