随笔分类 - tensorflow
摘要:https://blog.csdn.net/sinat_27382047/article/details/80534234 https://www.jianshu.com/p/cc830a6ed54b https://blog.csdn.net/u010402786/article/details/
阅读全文
摘要:以上是保存模型; 以下是载入模型,第一个print是看看随机生成的参数用于预测分类的结果;第二个print是看看载入的模型来预测分类的结果。
阅读全文
摘要:设计了两个隐藏层,激活函数是tanh,使用Adam优化算法,学习率随着epoch的增大而调低 最终达到了0.9828的准确率
阅读全文
摘要:前言: 用手工设计的两层神经网络,经过200个epoch,最后得到0.9599,约0.96的精度 正文 其中要注意的地方应该有: loss函数的计算,用了tf.losses.sparse_softmax_cross_entropy这个交叉熵损失函数,其中: labels_的输入是样本是真实标签,类似
阅读全文
摘要:前言 因为之前的anaconda的conda命令不能用,又找不到原因,所以就决定重装anaconda,然后再装个tensorflow环境。。 正文 可以去官网下载,也可以去清华的开源软件镜像站下载https://mirrors.tuna.tsinghua.edu.cn/anaconda/archiv
阅读全文
摘要:前言 看到DateWhale出了一篇安装教程(微信公众号DateWhale),决定体验一下Tensorflow1.9的GPU版本。。其实一开始装的是2.0,但是tf.Session()就报错了,说是2.0不能这么用, 于是有点怂,还是装回1.X版本先玩玩吧,至少教程多啊。。 正文 总共所需环境为 A
阅读全文
摘要:CNN用于文本分类本就是一个不完美的解决方案,因为CNN要求输入都是一定长度的,而对于文本分类问题,文本序列是不定长的,RNN可以完美解决序列不定长问题, 因为RNN不要求输入是一定长度的。那么对于CNN用于解决文本分类问题而言,可以判断文本的长度范围,例如如果大多数文本长度在100以下,极少数在1
阅读全文
摘要:目前不是很懂。。但主要意思是tf可以把一开始定义的参数,包括Weights和Biases保存到本地,然后再定义一个变量框架去加载(restore)这个参数,作为变量本身的参数进行后续的训练,具体如下: 和代码同一目录下就出现了my_net这个文件夹,同时里面有了四个文件 然后,开始restore该参
阅读全文
摘要:tf版本1.13.1,CPU 最近在tf里新学了一个函数,一查发现和tf.random_normal差不多,于是记录一下。。 1、首先是tf.truncated_normal函数 shape是张量维度,mean是正态分布是均值,stddev是正态分布的标准差; 它是从截断的正态分布中输出随机值,虽然
阅读全文
摘要:这几天在B站看莫烦的视频,学习一波,给出视频地址:https://www.bilibili.com/video/av16001891/?p=22 先放出代码 首先,在add_layer函数中,参数有inputs,in_size,out_size,activation_function=None 其中
阅读全文
摘要:placeholder函数相当于一个占位符,tf.placeholder(dtype, shape=None, name=None) dtype:数据类型。常用的是tf.float32,tf.float64等数值类型 shape:数据形状。默认是None,就是一维值,也可以多维,比如:[None,3
阅读全文
摘要:tf.assign(ref, value, validate_shape=None, use_locking=None, name=None), 函数功能是将value赋值给ref ref必须是tf.Variable创建的tensor,如果ref=tf.constant()就会报错,而且默认情况下r
阅读全文
摘要:前言: 最近开始学习tensorflow框架,主要参考《TensorfFlow技术解析与实战》这本书,如果有同学需要这本书的PDF版,可以给我评论里留下邮箱,我看到了会发给你 正文 1、Tensorflow的设计理念 图的定义与图的运行完全分开,比如在python中, 定义了t的运算,在运行时就执行
阅读全文