摘要:来自书籍:TensorFlow深度学习 一、卷积神经网络 1、卷积层 卷积核:kernel 步长:stride 填充:padding padding = same:如步长=2,卷积核扫描结束后还剩 1 个元素,不够卷积核扫描了,这个时候就在后面补 1 个零,补完后满足卷积核的扫描,这种方式就是sam
阅读全文
摘要:来自书籍:TensorFlow深度学习 一、常见功能模块 经典数据集加载函数 网络层类 模型容器 损失函数类 优化器类 经典模型类 1、网络层类: 两种实现方式:张量方式(tf.nn)和层方式(tf.keras.layers) 如实现Softmax层: tf.nn.softmax函数实现; laye
阅读全文
摘要:来自书籍:TensorFlow深度学习 一、神经网络介绍 1、全连接层(前向传播) (1)张量方式实现:tf.matmul (2)层方式实现: ① layers.Dense(输出节点数,激活函数),输入节点数函数自动获取 fc.kernel:获取权值矩阵 W fc.bias:获取偏置向量 b fc.
阅读全文
摘要:一、经典数据集 keras.datasets: 加载: datasets.XXX.load_data():实现经典书籍集的自动加载,XXX表示数据集名称,如MNIST。返回两个tuple,第一个tuple为训练集(x,y),第二个tuple为测试集(x,y),用Numpy数组保存。 tf.data.
阅读全文
摘要:一、常量 tf.constant([1.2,3.3]) 1、标量: 2、向量: 3、矩阵 4、字符串 5、布尔 二、数值精度 tf.constant(12,dtype=tf.int16) 1、类型 张量可保存为不同字节长度的精度,常用类型:tf.int16、tf.int32、tf.int64、tf.
阅读全文
摘要:来自《TensorFlow深度学习》书籍 一、线性回归 model = tf.keras.Sequential() #序列模型,在此基础上搭网络 model.add(tf.keras.layers.Dense(1,input_shape = (1,))) #全连接层 model.summary()
阅读全文
摘要:一、简介 二、TensorFlow2与1.X的区别 TensorFlow1.X是先建立图,然后session执行图。 TensorFlow2同时创建和计算图,即动态图模式。 三、主要内容 (1)tf.keras 是构建和训练模型的核心高级API,包含 (2)Eager模式与自定义训练 直接迭代和直观
阅读全文
摘要:tensorflow serving (一):运行官方例子 tensorflow serving (二):发布自己的服务
阅读全文
摘要:https://www.cnblogs.com/jiangxinyang/p/10208227.html https://www.cnblogs.com/jiangxinyang/p/10241243.html 一、textRNN模型 https://www.jianshu.com/p/e2f807
阅读全文
摘要:错误一:二分类,标签y ValueError: Cannot feed value of shape (128,1) for Tensor u'input_y_2:0', which has shape '(?, 2)' 我的输入y_train维度为(128,1),即是一个向量,batch_size
阅读全文
摘要:一、作用: https://blog.csdn.net/yjl9122/article/details/78341689 这节是关于tensorflow的Freezing,字面意思是冷冻,可理解为整合合并;整合什么呢,就是将模型文件和权重文件整合合并为一个文件,主要用途是便于发布。官方解释可参考:h
阅读全文
摘要:一、import 包 import os import pandas as pd import csv import time import datetime import numpy as np import tensorflow as tf import re import sys from _
阅读全文
摘要:目录: 自定义模型 建立自己的机器学习Estimator 调节RunConfig运行时的参数 Experiment和LearnRunner 深度神经网络 广度深度模型 线性/逻辑回归 随机森林 K均值聚类 支持向量机 一、分布式Estimator Estimator包含各种机器学习和深度学习的类,用
阅读全文
摘要:1、学习单步的RNN:RNNCell、BasicRNNCell、BasicLSTMCell、LSTMCell、GRUCell (1)RNNCell 如果要学习TensorFlow中的RNN,第一站应该就是去了解“RNNCell”,它是TensorFlow中实现RNN的基本单元,每个RNNCell都有
阅读全文
摘要:一、任务:采用基本的LSTM识别MNIST图片,将其分类成10个数字。 为了使用RNN来分类图片,将每张图片的行看成一个像素序列,因为MNIST图片的大小是28*28像素,所以我们把每一个图像样本看成一行行的序列。因此,共有(28个元素的序列)×(28行),然后每一步输入的序列长度是28,输入的步数
阅读全文
摘要:一、VGGNet:5段卷积【每段有2~3个卷积层+最大池化层】【每段过滤器个数:64-128-256-512-512】 每段的2~3个卷积层串联在一起的作用: 2个3×3的卷积层串联的效果相当于一个5×5的卷积层,即一个像素会跟周围5×5的像素产生关联。【28*28的输入经过一次5*5得到24*24
阅读全文
摘要:一、AlexNet:共8层:5个卷积层(卷积+池化)、3个全连接层,输出到softmax层,产生分类。 论文中lrn层推荐的参数:depth_radius = 4,bias = 1.0 , alpha = 0.001 / 9.0 , beta = 0.75 lrn现在仅在AlexNet中使用,主要是
阅读全文
摘要:一、卷积神经网络的简述 卷积神经网络将一个图像变窄变长。原本【长和宽较大,高较小】变成【长和宽较小,高增加】 卷积过程需要用到卷积核【二维的滑动窗口】【过滤器】,每个卷积核由n*m(长*宽)个小格组成,每个小格都有自己的权重值, 长宽变窄:过滤器的长宽决定的 高度变高:过滤器的个数决定的 输入:55
阅读全文
摘要:模型:双层神经网络 【一层隐藏层、一层输出层】隐藏层输出用relu函数,输出层输出用softmax函数 过程: x,y的占位,w1,b1,w2,b2的初始化 前向传播【y = w * x +b,w和b采用滑动平均更新】 后向传播【计算loss(包括交叉熵和正则化loss),采用GD更新参数(学习率使
阅读全文
摘要:神经网络的优化方法: 1、学习率的设置(指数衰减) 2、过拟合问题(Dropout) 3、滑动平均模型(参数更新,使模型在测试数据上更鲁棒) 4、批标准化(解决网络层数加深而产生的问题 如梯度弥散,爆炸等) 一、学习率的设置 指数衰减方法 通过指数衰减的方法设置GD的学习率。该方法可让模型在训练的前
阅读全文