上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 23 下一页
摘要: 各种归一化层(们)梳理 阅读全文
posted @ 2018-10-01 17:16 叠加态的猫 阅读(7979) 评论(0) 推荐(0) 编辑
摘要: 2017年的两项创新,联系比较紧密,一起介绍 阅读全文
posted @ 2018-09-29 20:20 叠加态的猫 阅读(24585) 评论(3) 推荐(8) 编辑
摘要: 使用Faster-RCNN实现中的新建节点来讲解MXNet中新建节点的流程和注意事项。 阅读全文
posted @ 2018-09-27 20:25 叠加态的猫 阅读(643) 评论(0) 推荐(0) 编辑
摘要: 棋盘效应的产生原因和解决方法,Google Brain 16年文章 阅读全文
posted @ 2018-09-26 15:24 叠加态的猫 阅读(7928) 评论(0) 推荐(2) 编辑
摘要: 16年论文,原理以及API,能学点是点吧,哎,现在科研进展的太快了,跟着费劲…… 阅读全文
posted @ 2018-09-21 17:27 叠加态的猫 阅读(17763) 评论(0) 推荐(1) 编辑
摘要: Faster-RCNN用于训练的网络具体设计机构,方便理解其复杂的论文说明。其应用的关键技术:非极大值抑制、ROIPooling本文并未着重探讨 阅读全文
posted @ 2018-09-20 00:21 叠加态的猫 阅读(2003) 评论(0) 推荐(0) 编辑
摘要: 从零开始学习C++……感觉很酸爽 阅读全文
posted @ 2018-09-18 17:05 叠加态的猫 阅读(4674) 评论(0) 推荐(1) 编辑
摘要: MXNet符号式编程级介绍 阅读全文
posted @ 2018-09-13 10:36 叠加态的猫 阅读(1994) 评论(1) 推荐(0) 编辑
摘要: 目标检测基础以及rcnn回顾(不包含mask-rcnn),其中有很多知识点在SSD源码学习中就有困惑,这次对目标检测任务的梳理的确学到了很多。 阅读全文
posted @ 2018-09-11 21:07 叠加态的猫 阅读(9424) 评论(0) 推荐(1) 编辑
摘要: 第二章编程类问题解答存根,其他问题一般依赖硬件具体信息,不予记录;CUDA相关为学习tf内部机制做准备,前两章已经可以大概了解CUDA编程原理,后续章节是否继续看视情况而定 阅读全文
posted @ 2018-09-04 17:35 叠加态的猫 阅读(662) 评论(0) 推荐(0) 编辑
摘要: 重现了一下原SSD,由于按照自己的想法进行了一些尝试,导致训练速度有所波动,也学习到了很多实际部署模型的加速知识 阅读全文
posted @ 2018-08-30 23:23 叠加态的猫 阅读(3924) 评论(4) 推荐(1) 编辑
摘要: 一、基础正则化函数 tf.contrib.layers.l1_regularizer(scale, scope=None) 返回一个用来执行L1正则化的函数,函数的签名是func(weights). 参数: scale: 正则项的系数. scope: 可选的scope name tf.contrib 阅读全文
posted @ 2018-08-14 14:21 叠加态的猫 阅读(13071) 评论(1) 推荐(0) 编辑
摘要: 一、基础知识 “__”前缀:私有属性、方法,在__dict__中存储时被改写为“_类名__”前缀 “_”前缀:是约定俗成的保护属性、方法,不过编译器不会对之采取任何处理 二、class特殊方法介绍 在第9章的双元素基础上,我们扩展为任意元素长度的向量,并探讨了相关方法的使用: __getattr__ 阅读全文
posted @ 2018-08-02 15:53 叠加态的猫 阅读(331) 评论(0) 推荐(0) 编辑
摘要: mx必备工具 阅读全文
posted @ 2018-07-26 19:41 叠加态的猫 阅读(4113) 评论(1) 推荐(0) 编辑
摘要: 完结篇,介绍一下作者具体训练的实现细节 阅读全文
posted @ 2018-07-24 16:09 叠加态的猫 阅读(2995) 评论(6) 推荐(1) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 23 下一页