随笔分类 -  深度学习

摘要:1. 尽管1x1的卷据不会捕捉空间特征(spatial features/patterns,直观点说就是2D平面图的纹理特征),但是他们能很好基于通道(channel-wise/along the depth dimension)的特征学习; 2. 由于是基于通道上的学习,因此他们能输出更少的特征图 阅读全文
posted @ 2020-05-11 21:37 JieLongZ 阅读(251) 评论(0) 推荐(0) 编辑
摘要:Wide Residual Networks (WRNs)是2016年被提出的基于扩展通道数学习机制的卷积神经网络。对深度卷积神经网络有了解的应该知道随着网络越深性能越好,但是训练深度卷积神经网络存在着这样子那样子的问题,如梯度消失/弥散(gradient vanishing/exploding)。 阅读全文
posted @ 2019-10-25 16:35 JieLongZ 阅读(3373) 评论(0) 推荐(2) 编辑
摘要:其实ResNet这篇论文看了很多次了,也是近几年最火的算法模型之一,一直没整理出来(其实不是要到用可能也不会整理吧,懒字头上一把刀啊,主要是是为了将resnet作为encoder嵌入到unet架构中,自己复现模型然后在数据集上进行测试所以才决定进行整理),今天把它按照理解尽可能详细的解释清楚跟大家一 阅读全文
posted @ 2019-09-26 23:37 JieLongZ 阅读(1100) 评论(0) 推荐(0) 编辑
摘要:假设一个卷积层的输入的特征图(feature maps)数量(input channels)为“n”,输出为特征图数量为“m”,卷积核(kernel size)为“k”。假设我们处理的是一个2D的卷积操作,卷积层对应的输入的参数量为k * k * n,与此同时,由于输出为m通道的特征图数量,为了映射 阅读全文
posted @ 2019-09-14 21:23 JieLongZ 阅读(1742) 评论(0) 推荐(0) 编辑
摘要:归一化和标准化是机器学习和深度学习中经常使用两种feature scaling的方式,这里主要讲述以下这两种feature scaling的方式如何计算,以及一般在什么情况下使用。 归一化的计算方式: 上述计算公式可以将特征的值规范在[0, 1]之间,使用归一化来进行feature scaling一 阅读全文
posted @ 2019-09-11 23:37 JieLongZ 阅读(3047) 评论(0) 推荐(0) 编辑
摘要:停更博客好长一段时间了,其实并不是没写了,而是转而做笔记了,但是发现做笔记其实印象无法更深刻,因此决定继续以写博客来记录或者复习巩固所学的知识,与此同时跟大家分享下自己对深度学习或者机器学习相关的知识点,当然浅薄之见如有说错表达错误的,欢迎大家指出来。废话不多说,进入今天的主题:Batch Norm 阅读全文
posted @ 2019-09-11 23:23 JieLongZ 阅读(1255) 评论(2) 推荐(1) 编辑
摘要:在这篇博文中主要介绍下机器学习中的偏差和方差。在实际运用机器学习(或深度学习)模型的过程当中,总是会难免碰到一个问题,就是常说的偏差(Bias)与方差(Variance),及其之间的权衡(Bias-Variance Tradeoff),理解了机器学习中的方差和偏差有助于进一步理解机器学习算法的运作并 阅读全文
posted @ 2018-09-01 14:58 JieLongZ 阅读(1055) 评论(0) 推荐(0) 编辑
摘要:3D U-Net这篇论文的诞生主要是为了处理一些块状图(volumetric images),基本的原理跟U-Net其实并无大差,因为3D U-Net就是用3D卷积操作替换了2D的,不过在这篇博文中我会按照论文的结构大概介绍一下整体的原理及结构运用。当然在原本的论文中,论文作者为了证实框架的可执行性 阅读全文
posted @ 2018-08-04 17:30 JieLongZ 阅读(12458) 评论(6) 推荐(1) 编辑
摘要:由于项目需要,用U-NET跑一个程序来对医学影像进行分割(segmentation),因此跑去看了下这篇论文(paper),下面会介绍一下U-Net的框架及要点,如果哪里有写的不对的,或者好的建议,欢迎提出并纠正。 论文地址:https://arxiv.org/abs/1505.04597 1. 概 阅读全文
posted @ 2018-07-31 13:33 JieLongZ 阅读(21320) 评论(2) 推荐(1) 编辑

点击右上角即可分享
微信分享提示