上一页 1 ··· 20 21 22 23 24 25 26 27 28 ··· 35 下一页
摘要: 一、数据集加载步骤 1、获得图片路径列表给x,获得标签列表给y. 2、将数据集装载到dataset。 3、打乱,用map()函数读取图片数据。 (1) images and labels ▪ 𝑋 = [1. 𝑝𝑛𝑔, 2. 𝑝𝑛𝑔, 3. 𝑝𝑛𝑔, … ] ▪ 𝑌 = [4,9 阅读全文
posted @ 2021-05-04 16:07 jasonzhangxianrong 阅读(855) 评论(0) 推荐(1) 编辑
摘要: 一、GRU原理 二、LSTM_cell实战 import os os.environ['TF_CPP_MIN_LOG_LEVEL']='2' import tensorflow as tf import numpy as np from tensorflow import keras from te 阅读全文
posted @ 2021-05-03 16:42 jasonzhangxianrong 阅读(312) 评论(0) 推荐(0) 编辑
摘要: 一、基础模型 1、这种模型,句子长的话,权值参数多、不能记住上下文信息。 2、参数共享,并增加记忆功能。 3、公式化表示RNN 二、RNN维度解析 1、如图,假设x的维度[batch, seq_len, embedding_len]是[b, 80, 100],则在t时刻,Xt的形状是[b, 100] 阅读全文
posted @ 2021-05-03 12:00 jasonzhangxianrong 阅读(372) 评论(0) 推荐(0) 编辑
摘要: 一、基础 二、ResNet18 import tensorflow as tf from tensorflow import keras from tensorflow.keras import layers, Sequential class BasicBlock(layers.Layer): d 阅读全文
posted @ 2021-05-02 17:11 jasonzhangxianrong 阅读(1844) 评论(0) 推荐(0) 编辑
摘要: 一、不进行归一化,某些W变化对loss影响较大 二、进行归一化 1、可以看到,Batch Norm结束后,只得到三个数值,每个通道一个。 2、正常的Batch Norm过后,均值为0,方差为1,但是需要再加一个贝塔和伽马。(B,r)需要学出来。 变成了均值为B,方差为r。 三、用法 1、下面的cen 阅读全文
posted @ 2021-05-02 14:30 jasonzhangxianrong 阅读(199) 评论(0) 推荐(0) 编辑
摘要: 一、网络结构 二、代码 import os os.environ['TF_CPP_MIN_LOG_LEVEL']='2' import tensorflow as tf from tensorflow.keras import layers, optimizers, datasets, Sequen 阅读全文
posted @ 2021-05-02 13:37 jasonzhangxianrong 阅读(534) 评论(0) 推荐(0) 编辑
摘要: 一、最大池化的类方法和函数式方法 二、上采样 三、RELU的类风格和函数式风格 阅读全文
posted @ 2021-05-01 18:33 jasonzhangxianrong 阅读(221) 评论(0) 推荐(0) 编辑
摘要: 一、基本概念 1、 看图:我们假设几个变量,N是卷积核的个数,B是batch_size,C是通道数,如RGB三个通道。 如下所示:X中b是batch_size,最后一个3是通道数。 one K 中第一个3是通道数,后面两个3是卷积大小3*3. multi-K 中第一个16是N,指的是有16个卷积。b 阅读全文
posted @ 2021-05-01 17:20 jasonzhangxianrong 阅读(91) 评论(0) 推荐(0) 编辑
摘要: 一、提前停止 ▪ Validation set to select parameters ▪ Monitor validation performance ▪ Stop at the highest val perf. 二、DroupOut 注意:在训练时,要加上Training=True,其他都是 阅读全文
posted @ 2021-04-29 21:50 jasonzhangxianrong 阅读(798) 评论(0) 推荐(0) 编辑
摘要: 一、动量 1、普通梯度更新与加上动量的梯度更新。 解释:原先更新的方向是梯度方向,现在多了一个Z方向,即现在是结合了历史惯性。 二、学习率缓慢减少 解释:学习率太大和太小都不太好 阅读全文
posted @ 2021-04-29 21:23 jasonzhangxianrong 阅读(222) 评论(0) 推荐(0) 编辑
上一页 1 ··· 20 21 22 23 24 25 26 27 28 ··· 35 下一页