06 2018 档案

tensorflow 模型前向传播 保存ckpt tensorbard查看 ckpt转pb pb 转snpe dlc 实例
摘要:参考: TensorFlow 自定义模型导出:将 .ckpt 格式转化为 .pb 格式 TensorFlow 模型保存与恢复 snpe tensorflow 模型前向传播 保存ckpt tensorbard查看 ckpt转pb pb 转snpe dlc 实例 log文件 输入节点 图像高度 图像宽度 阅读全文

posted @ 2018-06-29 09:31 Maddock 阅读(1734) 评论(0) 推荐(0) 编辑

tensorflow里面共享变量、name_scope, variable_scope等如何理解
摘要:tensorflow里面共享变量、name_scope, variable_scope等如何理解 tensorflow里面共享变量、name_scope, variable_scope等如何理解 name_scope, variable_scope目的:1 减少训练参数的个数。 2 区别同名变量 为 阅读全文

posted @ 2018-06-26 18:25 Maddock 阅读(335) 评论(0) 推荐(0) 编辑

Mxnet学习资源
摘要:MxNet 学习笔记(1):MxNet中的NDArray http://mxnet.incubator.apache.org/api/python/symbol/symbol.html api文档 MXNet API入门 —第6篇 MXNet API入门 —第5篇 MXNet API入门 —第4篇 阅读全文

posted @ 2018-06-26 10:52 Maddock 阅读(277) 评论(0) 推荐(0) 编辑

测试1
摘要:# encoding: UTF-8 import tensorflow as tf import numpy as np from tensorflow.examples.tutorials.mnist import input_data as mnist_data import tensorflow as tf from tensorflow.python.platform import ... 阅读全文

posted @ 2018-06-26 00:03 Maddock 阅读(260) 评论(0) 推荐(0) 编辑

tensorflow prelu的实现细节
摘要:tensorflow prelu的实现细节 output = tf.nn.leaky_relu(input, alpha=tf_gamma_data,name=name) #tf.nn.leaky_relu 限制了tf_gamma_data在[0 1]的范围内 内部实现方法是 output = tf 阅读全文

posted @ 2018-06-25 16:40 Maddock 阅读(2239) 评论(0) 推荐(0) 编辑

测试代码
摘要:#coding:utf-8 #http://blog.csdn.net/zhuiqiuk/article/details/53376283 #http://blog.csdn.net/gan_player/article/details/77586489 # from __future__ import absolute_import, unicode_literals # from ten... 阅读全文

posted @ 2018-06-25 00:21 Maddock 阅读(384) 评论(0) 推荐(0) 编辑

使用MXNet的NDArray来处理数据
摘要:使用MXNet的NDArray来处理数据 2018-03-06 14:29 by ☆Ronny丶, 382 阅读, 0 评论, 收藏, 编辑 NDArray.ipynb NDArray介绍 机器学习处理的对象是数据,数据一般是由外部传感器(sensors)采集,经过数字化后存储在计算机中,可能是文本 阅读全文

posted @ 2018-06-22 14:09 Maddock 阅读(1356) 评论(0) 推荐(0) 编辑

Relu的理解
摘要:ReLU上的花样 CNN出现以来,感觉在各个地方,即便是非常小的地方都有点可以挖掘。比如ReLU。 ReLU的有效性体现在两个方面: 克服梯度消失的问题 加快训练速度 而这两个方面是相辅相成的,因为克服了梯度消失问题,所以训练才会快。 ReLU的起源,在这片博文里,对ReLU的起源的介绍已经很详细了 阅读全文

posted @ 2018-06-22 13:46 Maddock 阅读(66566) 评论(0) 推荐(5) 编辑

mxnet与tensorflow的卷积实现细节比较
摘要:mxnet的卷积 kernel = 3 pad=1边界补充0后,不管stride是否1还是2,imgw = 奇数或者偶数, 都是从图像位置(0,0)开始卷积 tensorlfow的卷积 kernel = 3 pad=‘SAME’边界补充0后, imgw = 偶数 stride=1, 是从图像位置(0 阅读全文

posted @ 2018-06-22 10:24 Maddock 阅读(808) 评论(0) 推荐(0) 编辑

卷积输入输出图像大小的计算
摘要:输入输出图像大小的计算 此段内容引自我翻译的一篇文章 上面的内容可能会使你混淆每一层的输出尺寸。 所以我决定使用下面的内容让你能够识别输出尺寸。 在卷积层中,有三个关键控制着输出尺寸的大小 我们可以应用一个简单的公式来计算输出尺寸。 输出图像的空间大小可以计算(W-F + 2 p / S)+ 1。 阅读全文

posted @ 2018-06-21 16:55 Maddock 阅读(2385) 评论(0) 推荐(0) 编辑

Convolution Network及其变种(反卷积、扩展卷积、因果卷积、图卷积)
摘要:Convolution Network及其变种(反卷积、扩展卷积、因果卷积、图卷积) 阅读全文

posted @ 2018-06-21 08:24 Maddock 阅读(659) 评论(0) 推荐(0) 编辑

mxnet卷积计算
摘要:#coding:utf-8 ''' 卷积计算 ''' import mxnet as mx from mxnet.gluon import nn from mxnet import ndarray as nd # 卷积层 # 输入输出的数据格式是: batch * channel * height * width # 权重格式:output_channels * in_channels *... 阅读全文

posted @ 2018-06-20 13:40 Maddock 阅读(384) 评论(0) 推荐(0) 编辑

Group Normalization
摘要:Group Normalization Group Normalization 2018年03月26日 18:40:43 阅读数:1351 2018年03月26日 18:40:43 阅读数:1351 阅读数:1351 FAIR 团队,吴育昕和恺明大大的新作Group Normalization。 主 阅读全文

posted @ 2018-06-15 09:17 Maddock 阅读(1629) 评论(0) 推荐(0) 编辑

Resnet小记
摘要:ResNet之Deeper Bottleneck Architectures ResNet之Deeper Bottleneck Architectures 2016年12月28日 22:17:48 阅读数:2350 2016年12月28日 22:17:48 阅读数:2350 阅读数:2350 去年的 阅读全文

posted @ 2018-06-14 15:37 Maddock 阅读(663) 评论(0) 推荐(0) 编辑

Mxnet 查看模型params的网络结构
摘要:python showmxmodel.py 2>&1 | tee log.txtresult is('stage3_unit2_bn1_beta', (256L,))('stage3_unit2_bn3_beta', (256L,))('stage3_unit11_bn1_gamma', (256L 阅读全文

posted @ 2018-06-12 16:46 Maddock 阅读(4184) 评论(0) 推荐(0) 编辑

ResNets和Inception的理解
摘要:ResNets和Inception的理解 ResNet解析 阅读全文

posted @ 2018-06-07 10:19 Maddock 阅读(168) 评论(0) 推荐(0) 编辑

基础 | batchnorm原理及代码详解
摘要:https://blog.csdn.net/qq_25737169/article/details/79048516 https://www.cnblogs.com/bonelee/p/8528722.html Notes on Batch Normalization Notes on Batch 阅读全文

posted @ 2018-06-06 16:36 Maddock 阅读(1931) 评论(0) 推荐(0) 编辑

交叉熵代价函数原理
摘要:https://blog.csdn.net/u014595019/article/details/52562159 交叉熵代价函数(作用及公式推导) 2016年04月02日 18:22:52 __鸿 阅读数:65686更多 所属专栏: Machine Learing https://blog.csd 阅读全文

posted @ 2018-06-06 15:50 Maddock 阅读(238) 评论(0) 推荐(0) 编辑

深度学习笔记:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam)
摘要:深度学习笔记:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam) 深度学习笔记(一):logistic分类 深度学习笔记(二):简单神经网络,后向传播算法及实现 深度学习笔记(三):激活函数和损失函数 深度学习笔记:优化方法总结 深度学习笔记(四):循环神经网 阅读全文

posted @ 2018-06-06 15:36 Maddock 阅读(289) 评论(0) 推荐(0) 编辑

机器学习 logistic分类
摘要:https://blog.csdn.net/u014595019/article/details/52554582 阅读全文

posted @ 2018-06-06 14:42 Maddock 阅读(147) 评论(0) 推荐(0) 编辑

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示