该文被密码保护。 阅读全文
posted @ 2019-07-15 16:34 三年一梦 阅读(35) 评论(0) 推荐(0) 编辑
摘要: 一。mxnet优化器主要有三个API组成: 可以看到由初始化、优化器、学习率规划三部分组成。 首先是一个symbol训练demo,同时利用这三个api : 1)首先建立symbol模型 >>> data = mx.symbol.Variable('data') >>> label = mx.symb 阅读全文
posted @ 2020-06-28 12:44 三年一梦 阅读(386) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2020-06-23 16:38 三年一梦 阅读(0) 评论(0) 推荐(0) 编辑
摘要: 1. 对比 pytorch: nn.CrossEntropyLoss() & mxnet: gluon.loss.SoftmaxCrossEntropyLoss() 一般而言默认用法即可:(inputs只是分类器的得分,softmax和log包括在loss里) pytorch: d=np.array 阅读全文
posted @ 2020-06-22 16:07 三年一梦 阅读(638) 评论(0) 推荐(0) 编辑
摘要: SymbolBlock : class mxnet.gluon.nn.SymbolBlock(outputs, inputs, params=None) 继承自类HybridBlock 1. Gluon 加载并定制预训练模型 symbolblock的作用是构建一个symbol block。通常在需要 阅读全文
posted @ 2020-06-15 22:35 三年一梦 阅读(634) 评论(0) 推荐(0) 编辑
摘要: mx.symbol.reshape 对于给定输入的array和其shape,可以返回一个含有新shape的一个copy。shape是整形元组类型,可以包含可选的几个负数。 一些维度的可选值有:{0, -1, -2, -3, -4} 1. 维度0的作用是复制输入的该维度到对应输出: data=mx.s 阅读全文
posted @ 2020-06-14 22:35 三年一梦 阅读(1055) 评论(0) 推荐(0) 编辑
摘要: Hybrid - Faster training and easy deployment 相关内容: Fast, portable neural networks with Gluon HybridBlocks A Hybrid of Imperative and Symbolic Programm 阅读全文
posted @ 2020-06-09 16:13 三年一梦 阅读(370) 评论(0) 推荐(0) 编辑
摘要: Gluon包有以下API:只选择高频api介绍。 1. Parameter-参数相关 1)class mxnet.gluon.Parameter(name, grad_req='write', shape=None, dtype=<type 'numpy.float32'="">, lr_mult= 阅读全文
posted @ 2020-06-09 11:36 三年一梦 阅读(476) 评论(0) 推荐(0) 编辑
摘要: gluon/image_classification.py代码有这么一段: import mxnet as mx from mxnet.gluon.model_zoo import vision as models ... net = models.get_model('vgg11', contex 阅读全文
posted @ 2020-06-08 22:19 三年一梦 阅读(274) 评论(0) 推荐(0) 编辑
摘要: module或简写为mod,提供一个用于执行Symbol算的中高级接口,可理解为module是执行Symbol定义好的程序的机器。 module.Module接受Symbol作为输入: data = mx.sym.Variable('data') fc1 = mx.sym.FullyConnecte 阅读全文
posted @ 2020-06-08 18:01 三年一梦 阅读(655) 评论(0) 推荐(0) 编辑
摘要: Data Parallelism vs Model Parallelism 默认情况下,MXNet使用数据并行在多个设备上划分工作负载。假设有n个device。然后每个device都会收到一份完整模型的副本,并根据1/n的数据对其进行训练。梯度和更新模型等结果通过这些设备进行通信。MXNet还支持模 阅读全文
posted @ 2020-06-08 14:55 三年一梦 阅读(372) 评论(0) 推荐(0) 编辑