随笔分类 - Python开发笔记
每天记录关于Python方面笔记
摘要:本笔记由博客园-圆柱模板 博主整理笔记发布,转载需注明,谢谢合作! 目标函数又称损失函数(loss),目的是计算神经网络的输出与样本标记的差的一种方法,如: mean_squared_error就是损失函数的名称 可以选择的损失函数有: mean_squared_error,mean_absolut
阅读全文
摘要:本笔记由博客园-圆柱模板 博主整理笔记发布,转载需注明,谢谢合作! 优化器是调整每个节点权重的方法,如: 可以看到优化器在模型编译前定义,作为编译时的两个参数之一 代码中的sgd是随机梯度下降算法 lr表示学习速率 momentum表示动量项 decay是学习速率的衰减系数(每个epoch衰减一次)
阅读全文
摘要:在使用kears训练model的时候,一般会将所有的训练数据加载到内存中,然后喂给网络,但当内存有限,且数据量过大时,此方法则不再可用。此博客,将介绍如何在多核(多线程)上实时的生成数据,并立即的送入到模型当中训练。 本篇文章由圆柱模板博主发布。 先看一下还未改进的版本: 下面的结构将改变一次性载入
阅读全文
摘要:一、Numpy概念 Numpy(Numerical Python的简称)是Python科学计算的基础包。它提供了以下功能: 除了为Python提供快速的数组处理能力,Numpy在数据分析方面还有另外一个主要作用,即作为在算法之间传递数据的容器。对于数值型数据,Numpy数组在存储和处理数据时要比内置
阅读全文
摘要:1.首字母大写 2.replace,替换 查帮助: 如果是面向过程的函数用法,直接help( 函数名 ),如help( abs ) 用法说明: 接受3个参数,第一个需要替换的字符,第二个用什么字符去替换,第三个替换的次数,如果不传,默认全部替换 3.split:切割: 4.用string模块,用法如
阅读全文
摘要:类的基本概念: 问题空间:问题空间是问题解决者对一个问题所达到的全部认识状态,它是由问题解决者利用问题所包含的信息和已贮存的信息主动的地构成的。 初始状态:一开始时的不完全的信息或令人不满意的状况; 目标状态:你希望获得的信息或状态; 操作:为了从初始状态迈向目标状态,你可能采取的步骤。 对象:对象
阅读全文
摘要:操作系统 : CentOS7.3.1611_x64 gcc版本 :4.8.5 Python 版本 : 2.7.5 思路如下 : 1、将浮点数a通过内存拷贝,赋值给相同字节的整型数据b; 2、将b转换为网络字节序变量c并发送到服务端; 3、服务端接收c并将c转换为主机字节序变量d; 4、将整型数据d通
阅读全文
摘要:当前目录如果有同名的系统模块,那么当前目录的模块会被import,系统模块会被忽略,如: 在当前目录下,定义了一个同名的string模块( 指的是与系统的string模块同名 ),由于执行的时候,当前目录的模块被import了,所以识别不了系统string模块的方法capttalize. 只要删除目
阅读全文
摘要:本文是一个精心设计的Python框架、库、软件和资源列表,是一个Awesome XXX系列的资源整理,由BigQuant整理加工而成,欢迎扩散、欢迎补充! 对机器学习、深度学习在量化投资中应用感兴趣的朋友可以直接在BigQuant人工智能量化投资平台上开发策略~~~ 本文目录: 算法和设计模型 构建
阅读全文
摘要:mnist数据集获取60000个训练样本和10000个测试样本,样本为0-9十个数字,用全连接神经网络进行训练,并测试结果。 例程采用60000个数据样本进行训练,对于一般的电脑来说,这样训练会比较费时间,学习测试较慢 所以,可以加入以下几行代码: 依次理解笔记: 为model添加Dense层,即全
阅读全文
摘要:激活函数也是神经网络中一个很重的部分。每一层的网络输出都要经过激活函数。比较常用的有linear,sigmoid,tanh,softmax等。Keras内置提供了很全的激活函数,包括像LeakyReLU和PReLU这种比较新的激活函数。 一、激活函数的使用 常用的方法在Activation层中可以找
阅读全文
摘要:使用 Apply an activation function tothe input.(貌似是把激活函数应用到输入数据的一种层结构) inputshape: 任意。当把这层作为某个模型的第一层时,需要用到该参数(元组,不包含样本轴)。 outputshape:同input shape 参数: ac
阅读全文
摘要:深度学习Keras框架笔记之AutoEncoder类使用笔记 这是一个用于构建很常见的自动编码模型。如果参数output_reconstruction=True,那么dim(input)=dim(output);否则dim(output)=dim(hidden)。 inputshape: 取决于en
阅读全文
摘要:深度学习Keras框架笔记之TimeDistributedDense类使用方法笔记 例: 这是一个基于时间维度的全连接层。主要就是用来构建RNN(递归神经网络)的,但是在构建RNN时需要设置return_sequences=True。 inputshape: 3维 tensor(nb_samples
阅读全文
摘要:深度学习Keras框架笔记之Dense类(标准的一维全连接层) 例: inputshape: 2维 tensor(nb_samples, input_dim) outputshape: 2维 tensor(nb_samples, output_dim) 参数: output_dim: int >=
阅读全文
摘要:Keras的Layers,就是构成网络的每一层。Keras实现了很多层,包括核心层、卷基层、RNN网络层等诸多常用的网络结构。下面开介绍核心层中包含了哪些内容。因为这个核心层我现在还没有全部用到,所以会有一部分内容我并不是十分了解,因此直接附带了原文档介绍。有了解的朋友可以一起交流! 核心层基类 下
阅读全文
摘要:系统安装问题 在win10在需要security boot设置成disable,否则安装完后无法设置启动项。 安装完ubuntu重启,系统会直接进入win10,需要使用EaeyBCD进行启动项设置。 进入ubuntu系统,校园网不要使用DSL联网,而是直接默认连上有线连接后在网页进行登录 显卡驱动安
阅读全文
摘要:总体来讲keras这个深度学习框架真的很“简易”,它体现在可参考的文档写的比较详细,不像caffe,装完以后都得靠技术博客,keras有它自己的官方文档(不过是英文的),这给初学者提供了很大的学习空间。 在此做下代码框架应用笔记
阅读全文
摘要:今天分享一篇关于python下的zip()函数用法。 zip()是Python的一个内建函数,它接受一系列可迭代的对象作为参数,将对象中对应的元素按顺序组合成一个tuple,每个tuple中包含的是原有序列中对应序号位置的元素,然后返回由这些tuples组成的list。若传入参数的长度不等,则返回l
阅读全文
摘要:1、矩阵的行列式 2、矩阵的逆 3、矩阵的对称 4、矩阵的秩
阅读全文