随笔分类 -  TensorFlow

1 2 下一页

TensorFlow2.0学习(7)---卷积神经网络
摘要:来自书籍:TensorFlow深度学习 一、卷积神经网络 1、卷积层 卷积核:kernel 步长:stride 填充:padding padding = same:如步长=2,卷积核扫描结束后还剩 1 个元素,不够卷积核扫描了,这个时候就在后面补 1 个零,补完后满足卷积核的扫描,这种方式就是sam 阅读全文

posted @ 2020-03-26 20:05 吱吱了了 阅读(866) 评论(0) 推荐(0) 编辑

Tensorflow2.0学习(6)---Keras
摘要:来自书籍:TensorFlow深度学习 一、常见功能模块 经典数据集加载函数 网络层类 模型容器 损失函数类 优化器类 经典模型类 1、网络层类: 两种实现方式:张量方式(tf.nn)和层方式(tf.keras.layers) 如实现Softmax层: tf.nn.softmax函数实现; laye 阅读全文

posted @ 2020-03-26 12:34 吱吱了了 阅读(782) 评论(0) 推荐(0) 编辑

Tensorflow2.0学习(5)---神经网络训练过程
摘要:来自书籍:TensorFlow深度学习 一、神经网络介绍 1、全连接层(前向传播) (1)张量方式实现:tf.matmul (2)层方式实现: ① layers.Dense(输出节点数,激活函数),输入节点数函数自动获取 fc.kernel:获取权值矩阵 W fc.bias:获取偏置向量 b fc. 阅读全文

posted @ 2020-03-25 17:34 吱吱了了 阅读(1956) 评论(0) 推荐(0) 编辑

Tensorflow2.0学习(4)---数据集Dataset
摘要:一、经典数据集 keras.datasets: 加载: datasets.XXX.load_data():实现经典书籍集的自动加载,XXX表示数据集名称,如MNIST。返回两个tuple,第一个tuple为训练集(x,y),第二个tuple为测试集(x,y),用Numpy数组保存。 tf.data. 阅读全文

posted @ 2020-03-25 16:10 吱吱了了 阅读(906) 评论(0) 推荐(0) 编辑

Tensorflow2.0学习(3)---基础
摘要:一、常量 tf.constant([1.2,3.3]) 1、标量: 2、向量: 3、矩阵 4、字符串 5、布尔 二、数值精度 tf.constant(12,dtype=tf.int16) 1、类型 张量可保存为不同字节长度的精度,常用类型:tf.int16、tf.int32、tf.int64、tf. 阅读全文

posted @ 2020-03-24 17:51 吱吱了了 阅读(437) 评论(0) 推荐(1) 编辑

Tensorflow2.0学习(2)---线性回归和分类
摘要:来自《TensorFlow深度学习》书籍 一、线性回归 model = tf.keras.Sequential() #序列模型,在此基础上搭网络 model.add(tf.keras.layers.Dense(1,input_shape = (1,))) #全连接层 model.summary() 阅读全文

posted @ 2020-03-24 13:16 吱吱了了 阅读(1143) 评论(0) 推荐(0) 编辑

Tensorflow2.0学习(1)---简介
摘要:一、简介 二、TensorFlow2与1.X的区别 TensorFlow1.X是先建立图,然后session执行图。 TensorFlow2同时创建和计算图,即动态图模式。 三、主要内容 (1)tf.keras 是构建和训练模型的核心高级API,包含 (2)Eager模式与自定义训练 直接迭代和直观 阅读全文

posted @ 2020-03-23 18:09 吱吱了了 阅读(447) 评论(0) 推荐(0) 编辑

tensorflow实战笔记(21)----tenserflow/serving
摘要:tensorflow serving (一):运行官方例子 tensorflow serving (二):发布自己的服务 阅读全文

posted @ 2019-08-07 18:02 吱吱了了 阅读(236) 评论(0) 推荐(0) 编辑

tensorflow实战笔记(20)----textRNN
摘要:https://www.cnblogs.com/jiangxinyang/p/10208227.html https://www.cnblogs.com/jiangxinyang/p/10241243.html 一、textRNN模型 https://www.jianshu.com/p/e2f807 阅读全文

posted @ 2019-07-24 18:02 吱吱了了 阅读(794) 评论(0) 推荐(0) 编辑

tensorflow几个常见错误
摘要:错误一:二分类,标签y ValueError: Cannot feed value of shape (128,1) for Tensor u'input_y_2:0', which has shape '(?, 2)' 我的输入y_train维度为(128,1),即是一个向量,batch_size 阅读全文

posted @ 2019-07-23 19:43 吱吱了了 阅读(1681) 评论(0) 推荐(0) 编辑

tensorflow实战笔记(19)----使用freeze_graph.py将ckpt转为pb文件
摘要:一、作用: https://blog.csdn.net/yjl9122/article/details/78341689 这节是关于tensorflow的Freezing,字面意思是冷冻,可理解为整合合并;整合什么呢,就是将模型文件和权重文件整合合并为一个文件,主要用途是便于发布。官方解释可参考:h 阅读全文

posted @ 2019-07-05 11:58 吱吱了了 阅读(8698) 评论(2) 推荐(1) 编辑

tensorflow实战笔记(18)----textCNN
摘要:一、import 包 import os import pandas as pd import csv import time import datetime import numpy as np import tensorflow as tf import re import sys from _ 阅读全文

posted @ 2019-07-04 17:15 吱吱了了 阅读(1336) 评论(0) 推荐(0) 编辑

TensorFlow实战笔记(17)---TFlearn
摘要:目录: 自定义模型 建立自己的机器学习Estimator 调节RunConfig运行时的参数 Experiment和LearnRunner 深度神经网络 广度深度模型 线性/逻辑回归 随机森林 K均值聚类 支持向量机 一、分布式Estimator Estimator包含各种机器学习和深度学习的类,用 阅读全文

posted @ 2018-12-14 19:02 吱吱了了 阅读(532) 评论(0) 推荐(0) 编辑

TensorFlow的序列模型代码解释(RNN、LSTM)---笔记(16)
摘要:1、学习单步的RNN:RNNCell、BasicRNNCell、BasicLSTMCell、LSTMCell、GRUCell (1)RNNCell 如果要学习TensorFlow中的RNN,第一站应该就是去了解“RNNCell”,它是TensorFlow中实现RNN的基本单元,每个RNNCell都有 阅读全文

posted @ 2018-12-06 20:46 吱吱了了 阅读(3440) 评论(0) 推荐(0) 编辑

TensorFlow技术解析与实战学习笔记(15)-----MNIST识别(LSTM)
摘要:一、任务:采用基本的LSTM识别MNIST图片,将其分类成10个数字。 为了使用RNN来分类图片,将每张图片的行看成一个像素序列,因为MNIST图片的大小是28*28像素,所以我们把每一个图像样本看成一行行的序列。因此,共有(28个元素的序列)×(28行),然后每一步输入的序列长度是28,输入的步数 阅读全文

posted @ 2018-12-05 20:46 吱吱了了 阅读(924) 评论(0) 推荐(0) 编辑

TensorFlow实战学习笔记(14)------VGGNet
摘要:一、VGGNet:5段卷积【每段有2~3个卷积层+最大池化层】【每段过滤器个数:64-128-256-512-512】 每段的2~3个卷积层串联在一起的作用: 2个3×3的卷积层串联的效果相当于一个5×5的卷积层,即一个像素会跟周围5×5的像素产生关联。【28*28的输入经过一次5*5得到24*24 阅读全文

posted @ 2018-12-02 18:20 吱吱了了 阅读(364) 评论(0) 推荐(0) 编辑

TensorFlow技术解析与实战学习笔记(13)------Mnist识别和卷积神经网络AlexNet
摘要:一、AlexNet:共8层:5个卷积层(卷积+池化)、3个全连接层,输出到softmax层,产生分类。 论文中lrn层推荐的参数:depth_radius = 4,bias = 1.0 , alpha = 0.001 / 9.0 , beta = 0.75 lrn现在仅在AlexNet中使用,主要是 阅读全文

posted @ 2018-12-02 15:07 吱吱了了 阅读(381) 评论(0) 推荐(0) 编辑

TensorFlow+实战Google深度学习框架学习笔记(12)------Mnist识别和卷积神经网络LeNet
摘要:一、卷积神经网络的简述 卷积神经网络将一个图像变窄变长。原本【长和宽较大,高较小】变成【长和宽较小,高增加】 卷积过程需要用到卷积核【二维的滑动窗口】【过滤器】,每个卷积核由n*m(长*宽)个小格组成,每个小格都有自己的权重值, 长宽变窄:过滤器的长宽决定的 高度变高:过滤器的个数决定的 输入:55 阅读全文

posted @ 2018-12-01 16:50 吱吱了了 阅读(551) 评论(0) 推荐(0) 编辑

TensorFlow+实战Google深度学习框架学习笔记(11)-----Mnist识别【采用滑动平均,双层神经网络】
摘要:模型:双层神经网络 【一层隐藏层、一层输出层】隐藏层输出用relu函数,输出层输出用softmax函数 过程: x,y的占位,w1,b1,w2,b2的初始化 前向传播【y = w * x +b,w和b采用滑动平均更新】 后向传播【计算loss(包括交叉熵和正则化loss),采用GD更新参数(学习率使 阅读全文

posted @ 2018-11-28 21:31 吱吱了了 阅读(288) 评论(1) 推荐(0) 编辑

TensorFlow+实战Google深度学习框架学习笔记(10)-----神经网络几种优化方法
摘要:神经网络的优化方法: 1、学习率的设置(指数衰减) 2、过拟合问题(Dropout) 3、滑动平均模型(参数更新,使模型在测试数据上更鲁棒) 4、批标准化(解决网络层数加深而产生的问题 如梯度弥散,爆炸等) 一、学习率的设置 指数衰减方法 通过指数衰减的方法设置GD的学习率。该方法可让模型在训练的前 阅读全文

posted @ 2018-11-27 21:43 吱吱了了 阅读(941) 评论(0) 推荐(0) 编辑

1 2 下一页
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

点击右上角即可分享
微信分享提示