终身会员
周边
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
持续学习的JielongZ
不积跬步无以至千里
博客园
首页
新随笔
联系
订阅
管理
随笔 - 26
文章 - 1
评论 - 15
阅读 -
10万
2020年5月11日
1x1卷据层的作用
摘要: 1. 尽管1x1的卷据不会捕捉空间特征(spatial features/patterns,直观点说就是2D平面图的纹理特征),但是他们能很好基于通道(channel-wise/along the depth dimension)的特征学习; 2. 由于是基于通道上的学习,因此他们能输出更少的特征图
阅读全文
posted @ 2020-05-11 21:37 JieLongZ
阅读(251)
评论(0)
推荐(0)
编辑
公告
昵称:
JieLongZ
园龄:
6年6个月
粉丝:
23
关注:
0
+加关注
<
2025年1月
>
日
一
二
三
四
五
六
29
30
31
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
6
7
8
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
我的标签
深度学习
(6)
Python
(4)
卷积神经网络
(3)
机器学习
(3)
TF-IDF
(2)
TensorFlow
(2)
Stable Matching
(2)
ResNet
(2)
os.path.splitext()
(2)
NLP
(2)
更多
随笔分类
JavaScript(4)
Python(5)
TensorFlow(1)
机器学习(6)
开发环境搭建(1)
论文概要(3)
其他(书籍推荐)(1)
深度学习(9)
算法(5)
特征工程(1)
自然语言处理(6)
随笔档案
2020年11月(2)
2020年10月(2)
2020年5月(1)
2019年10月(1)
2019年9月(4)
2019年2月(4)
2019年1月(1)
2018年12月(1)
2018年9月(1)
2018年8月(4)
2018年7月(5)
阅读排行榜
1. U-Net卷积神经网络简要解析(附基于TensorFlow自己实现的代码参考)(21317)
2. Python中关于split和splitext的差别和运用(15864)
3. 3D U-Net卷积神经网络(12445)
4. 分词(Tokenization) - NLP学习(1)(9824)
5. N-grams模型、停顿词(stopwords)和标准化处理 - NLP学习(2)(9366)
评论排行榜
1. 3D U-Net卷积神经网络(6)
2. 解开Batch Normalization的神秘面纱(2)
3. U-Net卷积神经网络简要解析(附基于TensorFlow自己实现的代码参考)(2)
4. 文本向量化及词袋模型 - NLP学习(3-1)(1)
5. N-grams模型、停顿词(stopwords)和标准化处理 - NLP学习(2)(1)
推荐排行榜
1. 解析Wide Residual Networks(2)
2. 分词(Tokenization) - NLP学习(1)(2)
3. 解开Batch Normalization的神秘面纱(1)
4. word2vec是如何工作的?(1)
5. TF-IDF与主题模型 - NLP学习(3-2)(1)
最新评论
1. Re:Python读取不同文件夹下的图片并且分类放到新创建的训练文件夹和标签文件夹
博主你好,我想问一下为什么我的运行出来会显示没有imgpath模块呀? NameError: name 'imgpath' is not defined 就成这样的了...
--你说的代码都对
2. Re:N-grams模型、停顿词(stopwords)和标准化处理 - NLP学习(2)
写的很清楚
--CGZJDX
3. Re:解开Batch Normalization的神秘面纱
@consolexinhun 笔记是用印象那种写的,我记得比较多的是知识点,没有比较完整的记录,所以对于知识的梳理就不是很清楚。...
--JieLongZ
4. Re:解开Batch Normalization的神秘面纱
写博客和做笔记有什么区别么??
--consolexinhun
5. Re:U-Net卷积神经网络简要解析(附基于TensorFlow自己实现的代码参考)
博主你好,在github上提到使用的数据是LUNA 2016 lung segmentation的部分数据,请问博主你那边能公开已经处理好的数据吗?
--chenzhen0530
点击右上角即可分享