随笔 - 480  文章 - 0 评论 - 45 阅读 - 73万
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

随笔分类 -  torch学习入门

pytorch-cifar10分类网络结构
摘要:cifar10主要是由32x32的三通道彩色图, 总共10个类别,这里我们使用残差网络构造网络结构 网络结构: 第一层:首先经过一个卷积,归一化,激活 32x32x16 -> 32x32x16 第二层: 通过一多个残差模型 残差模块的网络构造: 如果stride != 1 or in_channel 阅读全文
posted @ 2019-10-25 15:56 python我的最爱 阅读(1998) 评论(0) 推荐(0) 编辑
pytorch-googleNet
摘要:googleNet网络结构 输入网络: 由4个分支网络构成 第一分支: 由1x1的卷积构成 第二分支: 由1x1的卷积,3x3的卷积构成 第三分支: 由1x1的卷积, 5x5的卷积构成 第四分支: 由3x3的最大值池化, 1x1的卷积构成 阅读全文
posted @ 2019-10-24 15:46 python我的最爱 阅读(408) 评论(0) 推荐(0) 编辑
pytorch-Resnet网络
摘要:残差网络:将输入层与输出层进行连接,保证了经过这层网路结构,网络的运算能力不会出现较大的改变 网络解析: 第一层网络: 输入网络经过一个卷积层,再经过一个batch_normalize, 再经过一个relu层 第二层网络;经过一层卷积层,将卷积后的网络与原输入数据进行对应位置相加操作, 将加和后的网 阅读全文
posted @ 2019-10-24 15:28 python我的最爱 阅读(761) 评论(0) 推荐(0) 编辑
pytorch-VGG网络
摘要:VGG网络结构 第一层: 3x3x3x64, 步长为1, padding=1 第二层: 3x3x64x64, 步长为1, padding=1 第三层: 3x3x64x128, 步长为1, padding=1 第四层: 3x3x128x128, 步长为1, padding=1 第五层: 3x3x128 阅读全文
posted @ 2019-10-23 22:46 python我的最爱 阅读(911) 评论(0) 推荐(0) 编辑
pytorch-Alexnet 网络
摘要:Alexnet网络结构, 相比于LeNet,Alexnet加入了激活层Relu, 以及dropout层 第一层网络结构: 11x11x3x96, 步长为4, padding=2 第二层网络结构: 5x5x96x256, 步长为1, padding=1 第三层网络结构: 3x3x256x384,步长为 阅读全文
posted @ 2019-10-23 22:02 python我的最爱 阅读(708) 评论(0) 推荐(0) 编辑
pytorch-LeNet网络
摘要:LeNet网络的结构 输入的32x32x1的单通道图片, 第一层网络: 3x3x1x6的卷积层,步长为1, padding = 1, 经过2x2的池化操作 第二层网络: 5x5x6x16的卷积层, 步长为1, padding = 2, 经过2x2的池化操作 第三层网络: 经过.view(out.si 阅读全文
posted @ 2019-10-23 21:37 python我的最爱 阅读(402) 评论(0) 推荐(0) 编辑
pytorch-卷积基本网络结构-提取网络参数-初始化网络参数
摘要:基本的卷积神经网络 提取前两层网络结构 提取所有的卷积层网络 打印卷积层的网络名字 对权重参数进行初始化操作 阅读全文
posted @ 2019-10-23 12:45 python我的最爱 阅读(2309) 评论(2) 推荐(1) 编辑
pytorch-mnist神经网络训练
摘要:在net.py里面构造网络,网络的结构为输入为28*28,第一层隐藏层的输出为300, 第二层输出的输出为100, 最后一层的输出层为10, net.py main.py 进行网络的训练 阅读全文
posted @ 2019-10-22 14:44 python我的最爱 阅读(1080) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示