会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
叠加态的猫
博客园
首页
新随笔
联系
管理
订阅
上一页
1
···
7
8
9
10
11
12
13
14
15
···
23
下一页
2018年5月23日
『Python CoolBook』使用ctypes访问C代码_下_demo进阶
摘要: 含参函数交互
阅读全文
posted @ 2018-05-23 18:19 叠加态的猫
阅读(1915)
评论(0)
推荐(1)
编辑
2018年5月18日
『Python CoolBook』使用ctypes访问C代码_上_用法讲解
摘要: so文件生成以及ctypes库基本交互方式
阅读全文
posted @ 2018-05-18 22:50 叠加态的猫
阅读(819)
评论(0)
推荐(0)
编辑
2018年5月16日
『MXNet』第四弹_Gluon自定义层
摘要: 一、不含参数层 通过继承Block自定义了一个将输入减掉均值的层:CenteredLayer类,并将层的计算放在forward函数里, 二、含参数层 注意,本节实现的自定义层不能自动推断输入尺寸,需要手动指定 见上节『MXNet』第三弹_Gluon模型参数在自定义层的时候我们常使用Block自带的P
阅读全文
posted @ 2018-05-16 19:09 叠加态的猫
阅读(1690)
评论(0)
推荐(0)
编辑
『MXNet』第三弹_Gluon模型参数
摘要: MXNet中含有init包,它包含了多种模型初始化方法。 一、访问模型参数 我们知道可以通过[]来访问Sequential类构造出来的网络的特定层。对于带有模型参数的层,我们可以通过Block类的params属性来得到它包含的所有参数。例如我们查看隐藏层的参数: print(net[0].param
阅读全文
posted @ 2018-05-16 16:27 叠加态的猫
阅读(3915)
评论(0)
推荐(0)
编辑
『MXNet』第二弹_Gluon构建模型
摘要: 上节用了Sequential类来构造模型。这里我们另外一种基于Block类的模型构造方法,它让构造模型更加灵活,也将让你能更好的理解Sequential的运行机制。 回顾: 序列模型生成 层填充 初始化模型参数 两点讲解: super(MLP, self).__init__(**kwargs):调用
阅读全文
posted @ 2018-05-16 15:20 叠加态的猫
阅读(2355)
评论(0)
推荐(0)
编辑
2018年5月14日
『MXNet』第一弹_基础架构及API
摘要: MXNet是基础,Gluon是封装,两者犹如TensorFlow和Keras,不过得益于动态图机制,两者交互比TensorFlow和Keras要方便得多,其基础操作和pytorch极为相似,但是方便不少,有pytorch基础入门会很简单。注意和TensorFlow不同,MXNet的图片维度是 bat
阅读全文
posted @ 2018-05-14 23:01 叠加态的猫
阅读(4864)
评论(0)
推荐(0)
编辑
2018年5月13日
『流畅的Python』第1~4章笔记_数据结构、编码
摘要: 由于1~4章内容零散且基础,所以统计一下涉及到的内容,记录一下,方便查阅(第一张图右键新页面打开即可看到清晰大图)
阅读全文
posted @ 2018-05-13 23:39 叠加态的猫
阅读(489)
评论(0)
推荐(0)
编辑
2018年5月12日
『Numpy』内存分析_利用共享内存创建数组
摘要: 引、内存探究常用函数 id(),查询对象标识,通常返回的是对象的地址 sys.getsizeof(),返回的是 这个对象所占用的空间大小,对于数组来说,除了数组中每个值占用空间外,数组对象还会存储数组长度、数组类型等其他信息 numpy.ndarray.ctypes.data属性,返回numpy数组
阅读全文
posted @ 2018-05-12 12:51 叠加态的猫
阅读(2525)
评论(0)
推荐(0)
编辑
『Numpy』内存分析_numpy.dtype解析内存数据
摘要: numpy.dtype用于自定义数据类型,实际是指导python程序存取内存数据时的解析方式。 【注意】,更改格式不能使用 array.dtype=int32 这样的硬性更改,会不改变内存直接该边解析过程,导致读取出问题,所以使用 array.astype(int32) ,这样才安全。 一、基本使用
阅读全文
posted @ 2018-05-12 12:51 叠加态的猫
阅读(3866)
评论(0)
推荐(0)
编辑
『Python』内存分析_list和array
摘要: 零、预备知识 在Python中,列表是一个动态的指针数组,而array模块所提供的array对象则是保存相同类型的数值的动态数组。由于array直接保存值,因此它所使用的内存比列表少。列表和array都是动态数组,因此往其中添加新元素,而没有空间保存新的元素时,它们会自动重新分配内存块,并将原来的内
阅读全文
posted @ 2018-05-12 12:50 叠加态的猫
阅读(12994)
评论(0)
推荐(4)
编辑
2018年5月10日
『Re』正则表达式模块_常用方法记录
摘要: 常用库介绍之Re
阅读全文
posted @ 2018-05-10 15:31 叠加态的猫
阅读(544)
评论(0)
推荐(0)
编辑
2018年5月8日
『TensorFlow』使用集合collection控制variables
摘要: Variable Tensorflow使用Variable类表达、更新、存储模型参数。 Variable是在可变更的,具有保持性的内存句柄,存储着Tensor 在整个session运行之前,图中的全部Variable必须被初始化 Variable的值在sess.run(init)之后就确定了 Ten
阅读全文
posted @ 2018-05-08 10:40 叠加态的猫
阅读(10249)
评论(0)
推荐(0)
编辑
2018年5月4日
『TensorFlow』生成式网络中的图片预处理
摘要: 简介 这里的生成式网络是广义的生成式,不仅仅指gan网络,还有风格迁移中的类自编码器网络,以及语义分割中的类自编码器网络,因为遇到次数比较多,所以简单的记录一下。 背景 1、像素和数字 图像处理目标一般就是RGB三色通道,原始图像解码后是0~255,这个矩阵传给matplotlib就可以直接绘图了,
阅读全文
posted @ 2018-05-04 20:13 叠加态的猫
阅读(1898)
评论(0)
推荐(0)
编辑
『Github』本地项目更新到服务器
摘要: 对于已经新建到服务器的项目,我们在本地有了新的修改之后,想要同步到服务器时的操作。 1、clone代码 1.把目标工程clone到本地,使用指令: >git clone https://github.com/Hellcatzm/FastNeuralStyleTransfer_tensorflow.g
阅读全文
posted @ 2018-05-04 16:28 叠加态的猫
阅读(1516)
评论(0)
推荐(0)
编辑
2018年4月25日
『Python』源码解析_从ctype模块理解对象
摘要: 1、对象的引用计数 从c代码分析可知,python所有对象的内存有着同样的起始结构:引用计数+类型信息,实际上这些信息在python本体重也是可以透过包来一窥一二的, 查看对象a的引用次数,原文中返回值1,实际返回2,可能是python3相对2的改动使得多引用一次,接下来创建一个列表,此列表中的每个
阅读全文
posted @ 2018-04-25 23:30 叠加态的猫
阅读(1373)
评论(0)
推荐(0)
编辑
上一页
1
···
7
8
9
10
11
12
13
14
15
···
23
下一页
公告