随笔分类 - Deep Learning
这个博客将记录我学习深度学习的历程
摘要:1\policy Gradient(Review) 三个组件:Actor\Enviroment\Reward Enviromwnt和Reward开始之前就已经存在,能调整的就是Actor的策略,如何是Actor的策略可以得到最大的Reward. 2\Policy of Actor policy:π,
阅读全文
摘要:基础知识: argparse: 用于在命令行运行python时,输入参数 例如proxy.py: 命令行下: 解释: os和sys: os模块负责程序与操作系统的交互,提供了访问操作系统底层的接口;sys模块负责程序与python解释器的交互,提供了一系列的函数和变量,用于操控python的运行时环
阅读全文
摘要:原址:http://tensorfly.cn/tfdoc/tutorials/mnist_pros.html eval()函数:计算字符串中有效的表达式;将字符串转化为相应的对象;解析字符串有效的表达式. 1.InteractiveSession()和Session()的区别 tf.Interact
阅读全文
摘要:教程链接:https://www.w3cschool.cn/tensorflow_python/tensorflow_python-c1ov28so.html tensorflow 常用的函数: # 导入tensorflow,使用tf代替 # 计算x,和w的乘积,这里计算x矩阵和w矩阵的乘积 # 先
阅读全文
摘要:参考:https://www.jianshu.com/p/8a0ad237b0ed 1、随机现象:并不总是出现相同结果的现象称为随机现象。 2、随机变量:随机现象各种结果的变量(一切可能的样本)称为随机变量。 3、信息量:概率越小的事件,信息量越大。 例如: 事件一:巴西进世界杯 事件二:中国进世界
阅读全文
摘要:numpy介绍 numpy属于python的一个数学库,相比于Python做数值计算速度更快.也可以使用numpy进行向量和矩阵计算. 1.ndarrays数据类型的创建 2、ndarrays的切片 x[1,2,...] 等于 x[1,2,:,:,:]。 # 省略后面 x[...,3] 等效于 x[
阅读全文
摘要:import tensorflow as tf import numpy as np # 使用 NumPy 生成数据(phony data), 总共 100 个点. x_data = np.float32(np.random.rand(2, 100)) # 随机产生2行100列的数据 y_data = np.dot([0.100, 0.200], x_data) + 0.300 # ...
阅读全文
摘要:假设训练集由 表示,神经网络可以提供描述此样本的模型 ,参数是,以此拟合数据。 神经网络由神经元构成,最简单的神经网络是由一个神经元构成的,下图 1便是一个神经元: 图 1 这个“神经元”是一个以 及截距 为输入值的运算单元,其输出为 ,其中函数 被称为“激活函数”。这里使用sigmod函数作为激活
阅读全文
摘要:回归算法:线性回归、逻辑回归 1、线性回归 线性回归计算的是数值问题,最后预测的结果是数值。房价问题中,如何拟合出一条直线最佳匹配我所有的数据?如图1。一般使用“最小二乘法”来求解。“最小二乘法”的思想是这样 的,假设我们拟合出的直线代表数据的真实值,而观测到的数据代表拥有误差的值。为了尽可能减小误
阅读全文
摘要:思想如下图: A:大量的数据,训练出模型; B:新的数据,经过模型判断出结果。 笔记:训练的数据:数值、图像、语音等数据。对这些数据训练出模型。使用模型预测新的数据。后续更新...... 《DEEP LEARNING》读书笔记 1、先提取一个合适的特征集,然后将这些特征提供给简单的机器学习算法。 有
阅读全文
摘要:参考:https://blog.csdn.net/zb1165048017/article/details/73200822
阅读全文
摘要:参考:https://www.jianshu.com/p/fe428f0b32c1 基于卷积神经网络的AlexNet模型:https://blog.csdn.net/zyqdragon/article/details/72353420 公式:(227-11)/4+1=55个像素(227个像素减去11
阅读全文
摘要:参考:http://kangqingfei.cn/2016/08/25/Linux-%E5%AE%89%E8%A3%85Caffe/ https://blog.csdn.net/yhaolpz/article/details/71375762
阅读全文
摘要:tf.argmax(array, axis) 返回值,最大值的索引,axis取0或者1. 在axis为1的时候,为横向比较。 在axis为0的时候是,纵向比较。 参考这里:https://blog.csdn.net/qq575379110/article/details/70538051
阅读全文
摘要:参照这里:https://www.zhihu.com/question/23765351
阅读全文
摘要:tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 除去name参数用以指定该操作的name,与方法有关的一共两个参数: 第一个参数logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[batc
阅读全文
摘要:一,tensorflow中有一类在tensor的某一维度上求值的函数。如: 求最大值tf.reduce_max(input_tensor, reduction_indices=None, keep_dims=False, name=None) 求平均值tf.reduce_mean(input_ten
阅读全文
摘要:tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None) 除去name参数用以指定该操作的name,与方法有关的一共五个参数: 第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor
阅读全文
摘要:How many layers?How many neurons for each layer? Trial and Erro + Intuition 参照:李弘毅—1天搞懂深度学习 一直困惑于,如何确定神经网络的层次和每层的节点,原来还要看直觉呢!
阅读全文
摘要:主要特点是,当误差大的时候,权重更新就快,当误差小的时候,权重的更新就慢。为了更新w和b值。 参考:https://blog.csdn.net/u012162613/article/details/44239919
阅读全文