上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 23 下一页
摘要: 含参函数交互 阅读全文
posted @ 2018-05-23 18:19 叠加态的猫 阅读(1909) 评论(0) 推荐(1) 编辑
摘要: so文件生成以及ctypes库基本交互方式 阅读全文
posted @ 2018-05-18 22:50 叠加态的猫 阅读(815) 评论(0) 推荐(0) 编辑
摘要: 一、不含参数层 通过继承Block自定义了一个将输入减掉均值的层:CenteredLayer类,并将层的计算放在forward函数里, 二、含参数层 注意,本节实现的自定义层不能自动推断输入尺寸,需要手动指定 见上节『MXNet』第三弹_Gluon模型参数在自定义层的时候我们常使用Block自带的P 阅读全文
posted @ 2018-05-16 19:09 叠加态的猫 阅读(1685) 评论(0) 推荐(0) 编辑
摘要: MXNet中含有init包,它包含了多种模型初始化方法。 一、访问模型参数 我们知道可以通过[]来访问Sequential类构造出来的网络的特定层。对于带有模型参数的层,我们可以通过Block类的params属性来得到它包含的所有参数。例如我们查看隐藏层的参数: print(net[0].param 阅读全文
posted @ 2018-05-16 16:27 叠加态的猫 阅读(3900) 评论(0) 推荐(0) 编辑
摘要: 上节用了Sequential类来构造模型。这里我们另外一种基于Block类的模型构造方法,它让构造模型更加灵活,也将让你能更好的理解Sequential的运行机制。 回顾: 序列模型生成 层填充 初始化模型参数 两点讲解: super(MLP, self).__init__(**kwargs):调用 阅读全文
posted @ 2018-05-16 15:20 叠加态的猫 阅读(2343) 评论(0) 推荐(0) 编辑
摘要: MXNet是基础,Gluon是封装,两者犹如TensorFlow和Keras,不过得益于动态图机制,两者交互比TensorFlow和Keras要方便得多,其基础操作和pytorch极为相似,但是方便不少,有pytorch基础入门会很简单。注意和TensorFlow不同,MXNet的图片维度是 bat 阅读全文
posted @ 2018-05-14 23:01 叠加态的猫 阅读(4836) 评论(0) 推荐(0) 编辑
摘要: 由于1~4章内容零散且基础,所以统计一下涉及到的内容,记录一下,方便查阅(第一张图右键新页面打开即可看到清晰大图) 阅读全文
posted @ 2018-05-13 23:39 叠加态的猫 阅读(485) 评论(0) 推荐(0) 编辑
摘要: 引、内存探究常用函数 id(),查询对象标识,通常返回的是对象的地址 sys.getsizeof(),返回的是 这个对象所占用的空间大小,对于数组来说,除了数组中每个值占用空间外,数组对象还会存储数组长度、数组类型等其他信息 numpy.ndarray.ctypes.data属性,返回numpy数组 阅读全文
posted @ 2018-05-12 12:51 叠加态的猫 阅读(2485) 评论(0) 推荐(0) 编辑
摘要: numpy.dtype用于自定义数据类型,实际是指导python程序存取内存数据时的解析方式。 【注意】,更改格式不能使用 array.dtype=int32 这样的硬性更改,会不改变内存直接该边解析过程,导致读取出问题,所以使用 array.astype(int32) ,这样才安全。 一、基本使用 阅读全文
posted @ 2018-05-12 12:51 叠加态的猫 阅读(3847) 评论(0) 推荐(0) 编辑
摘要: 零、预备知识 在Python中,列表是一个动态的指针数组,而array模块所提供的array对象则是保存相同类型的数值的动态数组。由于array直接保存值,因此它所使用的内存比列表少。列表和array都是动态数组,因此往其中添加新元素,而没有空间保存新的元素时,它们会自动重新分配内存块,并将原来的内 阅读全文
posted @ 2018-05-12 12:50 叠加态的猫 阅读(12909) 评论(0) 推荐(4) 编辑
摘要: 常用库介绍之Re 阅读全文
posted @ 2018-05-10 15:31 叠加态的猫 阅读(543) 评论(0) 推荐(0) 编辑
摘要: Variable Tensorflow使用Variable类表达、更新、存储模型参数。 Variable是在可变更的,具有保持性的内存句柄,存储着Tensor 在整个session运行之前,图中的全部Variable必须被初始化 Variable的值在sess.run(init)之后就确定了 Ten 阅读全文
posted @ 2018-05-08 10:40 叠加态的猫 阅读(10221) 评论(0) 推荐(0) 编辑
摘要: 简介 这里的生成式网络是广义的生成式,不仅仅指gan网络,还有风格迁移中的类自编码器网络,以及语义分割中的类自编码器网络,因为遇到次数比较多,所以简单的记录一下。 背景 1、像素和数字 图像处理目标一般就是RGB三色通道,原始图像解码后是0~255,这个矩阵传给matplotlib就可以直接绘图了, 阅读全文
posted @ 2018-05-04 20:13 叠加态的猫 阅读(1891) 评论(0) 推荐(0) 编辑
摘要: 对于已经新建到服务器的项目,我们在本地有了新的修改之后,想要同步到服务器时的操作。 1、clone代码 1.把目标工程clone到本地,使用指令: >git clone https://github.com/Hellcatzm/FastNeuralStyleTransfer_tensorflow.g 阅读全文
posted @ 2018-05-04 16:28 叠加态的猫 阅读(1511) 评论(0) 推荐(0) 编辑
摘要: 1、对象的引用计数 从c代码分析可知,python所有对象的内存有着同样的起始结构:引用计数+类型信息,实际上这些信息在python本体重也是可以透过包来一窥一二的, 查看对象a的引用次数,原文中返回值1,实际返回2,可能是python3相对2的改动使得多引用一次,接下来创建一个列表,此列表中的每个 阅读全文
posted @ 2018-04-25 23:30 叠加态的猫 阅读(1364) 评论(0) 推荐(0) 编辑
上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 23 下一页