随笔分类 -  DeepLearning

关于softmax、argmax、softargmax
摘要:关于softmax、argmax、softargmax 在阅读LIFT:Learned Invariant Feature Transform一文时,文中第1节提到为了保证端到端的可微性,利用softargmax来代替传统的NMS(非极大值抑制)来挑选极值点位置。由于只了解softmax,对于sof 阅读全文

posted @ 2018-12-20 10:53 Maddock 阅读(1501) 评论(0) 推荐(0) 编辑

tensorflow模型量化
摘要:tensorflow模型量化/DATA/share/DeepLearning/code/tensorflow/bazel-bin/tensorflow/tools/graph_transforms/transform_graph \--in_graph=./model_resnet100.pb \- 阅读全文

posted @ 2018-11-16 16:22 Maddock 阅读(422) 评论(0) 推荐(0) 编辑

深度学习里面的而优化函数
摘要:https://mp.weixin.qq.com/s/xm4MuZm-6nKTn2eE3eNOlg (一)一个框架看懂优化算法 “ 说到优化算法,入门级必从 SGD 学起,老司机则会告诉你更好的还有AdaGrad / AdaDelta,或者直接无脑用 Adam。可是看看学术界的最新 paper,却发 阅读全文

posted @ 2018-10-25 15:54 Maddock 阅读(5322) 评论(1) 推荐(0) 编辑

纵览轻量化卷积神经网络:SqueezeNet、MobileNet、ShuffleNet、Xception
摘要:https://baijiahao.baidu.com/s?id=1589005428414488177&wfr=spider&for=pc 阅读全文

posted @ 2018-10-22 16:49 Maddock 阅读(554) 评论(0) 推荐(0) 编辑

Caffe、TensorFlow、MXnet三个开源库对比+主流分类模型对比
摘要:安装难度: (简单) –> **(复杂) 文档风格: (一般) –> **(好看、全面) 示例: (给的少) –> **(给的多、全) 上手难易: (易) –> **(难) 1.基本数据结构 caffe的数据存储类blob,当把数据可以看成是一个N维的c数组,它们的存储空间连续。例如存储图片是4维( 阅读全文

posted @ 2018-10-17 10:43 Maddock 阅读(2797) 评论(0) 推荐(0) 编辑

L1&L2 Regularization的原理
摘要:L1&L2 Regularization 正则化方法:防止过拟合,提高泛化能力 在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集 阅读全文

posted @ 2018-10-17 10:09 Maddock 阅读(2269) 评论(0) 推荐(0) 编辑

tensorflow 模型前向传播 保存ckpt tensorbard查看 ckpt转pb pb 转snpe dlc 实例
摘要:参考: TensorFlow 自定义模型导出:将 .ckpt 格式转化为 .pb 格式 TensorFlow 模型保存与恢复 snpe tensorflow 模型前向传播 保存ckpt tensorbard查看 ckpt转pb pb 转snpe dlc 实例 log文件 输入节点 图像高度 图像宽度 阅读全文

posted @ 2018-06-29 09:31 Maddock 阅读(1734) 评论(0) 推荐(0) 编辑

使用MXNet的NDArray来处理数据
摘要:使用MXNet的NDArray来处理数据 2018-03-06 14:29 by ☆Ronny丶, 382 阅读, 0 评论, 收藏, 编辑 NDArray.ipynb NDArray介绍 机器学习处理的对象是数据,数据一般是由外部传感器(sensors)采集,经过数字化后存储在计算机中,可能是文本 阅读全文

posted @ 2018-06-22 14:09 Maddock 阅读(1356) 评论(0) 推荐(0) 编辑

Relu的理解
摘要:ReLU上的花样 CNN出现以来,感觉在各个地方,即便是非常小的地方都有点可以挖掘。比如ReLU。 ReLU的有效性体现在两个方面: 克服梯度消失的问题 加快训练速度 而这两个方面是相辅相成的,因为克服了梯度消失问题,所以训练才会快。 ReLU的起源,在这片博文里,对ReLU的起源的介绍已经很详细了 阅读全文

posted @ 2018-06-22 13:46 Maddock 阅读(66566) 评论(0) 推荐(5) 编辑

mxnet与tensorflow的卷积实现细节比较
摘要:mxnet的卷积 kernel = 3 pad=1边界补充0后,不管stride是否1还是2,imgw = 奇数或者偶数, 都是从图像位置(0,0)开始卷积 tensorlfow的卷积 kernel = 3 pad=‘SAME’边界补充0后, imgw = 偶数 stride=1, 是从图像位置(0 阅读全文

posted @ 2018-06-22 10:24 Maddock 阅读(808) 评论(0) 推荐(0) 编辑

卷积输入输出图像大小的计算
摘要:输入输出图像大小的计算 此段内容引自我翻译的一篇文章 上面的内容可能会使你混淆每一层的输出尺寸。 所以我决定使用下面的内容让你能够识别输出尺寸。 在卷积层中,有三个关键控制着输出尺寸的大小 我们可以应用一个简单的公式来计算输出尺寸。 输出图像的空间大小可以计算(W-F + 2 p / S)+ 1。 阅读全文

posted @ 2018-06-21 16:55 Maddock 阅读(2386) 评论(0) 推荐(0) 编辑

Convolution Network及其变种(反卷积、扩展卷积、因果卷积、图卷积)
摘要:Convolution Network及其变种(反卷积、扩展卷积、因果卷积、图卷积) 阅读全文

posted @ 2018-06-21 08:24 Maddock 阅读(659) 评论(0) 推荐(0) 编辑

mxnet卷积计算
摘要:#coding:utf-8 ''' 卷积计算 ''' import mxnet as mx from mxnet.gluon import nn from mxnet import ndarray as nd # 卷积层 # 输入输出的数据格式是: batch * channel * height * width # 权重格式:output_channels * in_channels *... 阅读全文

posted @ 2018-06-20 13:40 Maddock 阅读(384) 评论(0) 推荐(0) 编辑

Group Normalization
摘要:Group Normalization Group Normalization 2018年03月26日 18:40:43 阅读数:1351 2018年03月26日 18:40:43 阅读数:1351 阅读数:1351 FAIR 团队,吴育昕和恺明大大的新作Group Normalization。 主 阅读全文

posted @ 2018-06-15 09:17 Maddock 阅读(1629) 评论(0) 推荐(0) 编辑

Resnet小记
摘要:ResNet之Deeper Bottleneck Architectures ResNet之Deeper Bottleneck Architectures 2016年12月28日 22:17:48 阅读数:2350 2016年12月28日 22:17:48 阅读数:2350 阅读数:2350 去年的 阅读全文

posted @ 2018-06-14 15:37 Maddock 阅读(663) 评论(0) 推荐(0) 编辑

Mxnet 查看模型params的网络结构
摘要:python showmxmodel.py 2>&1 | tee log.txtresult is('stage3_unit2_bn1_beta', (256L,))('stage3_unit2_bn3_beta', (256L,))('stage3_unit11_bn1_gamma', (256L 阅读全文

posted @ 2018-06-12 16:46 Maddock 阅读(4184) 评论(0) 推荐(0) 编辑

基础 | batchnorm原理及代码详解
摘要:https://blog.csdn.net/qq_25737169/article/details/79048516 https://www.cnblogs.com/bonelee/p/8528722.html Notes on Batch Normalization Notes on Batch 阅读全文

posted @ 2018-06-06 16:36 Maddock 阅读(1931) 评论(0) 推荐(0) 编辑

mxnet卷积神经网络训练MNIST数据集测试
摘要:mxnet框架下超全手写字体识别—从数据预处理到网络的训练—模型及日志的保存 INFO:root:Epoch[0] Batch [100] Speed: 1504.57 samples/sec accuracy=0.113564INFO:root:Epoch[0] Batch [200] Speed 阅读全文

posted @ 2018-04-26 16:09 Maddock 阅读(1576) 评论(0) 推荐(0) 编辑

TensorFlow基础笔记(13) Mobilenet训练测试mnist数据
摘要:主要是四个文件 mnist_train.py mnist_eval.py mnist_inference.py mobilenet_v1.py 从此处下载 https://github.com/tensorflow/models/blob/master/research/slim/nets/mobi 阅读全文

posted @ 2017-12-01 15:02 Maddock 阅读(7037) 评论(1) 推荐(0) 编辑

面向移动端的轻量级神经网络模型mobilenet、ShuffleNet
摘要:翻译: http://baijiahao.baidu.com/s?id=1565832713111936&wfr=spider&for=pc http://baijiahao.baidu.com/s?id=1566004753349359&wfr=spider&for=pc ShuffleNet和M 阅读全文

posted @ 2017-11-29 16:46 Maddock 阅读(1582) 评论(0) 推荐(0) 编辑

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示