07 2019 档案

摘要:https://blog.csdn.net/sinat_27382047/article/details/80534234 https://www.jianshu.com/p/cc830a6ed54b https://blog.csdn.net/u010402786/article/details/ 阅读全文
posted @ 2019-07-24 15:17 嶙羽 阅读(1365) 评论(0) 推荐(0) 编辑
摘要:以上是保存模型; 以下是载入模型,第一个print是看看随机生成的参数用于预测分类的结果;第二个print是看看载入的模型来预测分类的结果。 阅读全文
posted @ 2019-07-22 20:26 嶙羽 阅读(466) 评论(0) 推荐(0) 编辑
摘要:按照惯例,先放代码: 阅读全文
posted @ 2019-07-22 19:31 嶙羽 阅读(851) 评论(0) 推荐(0) 编辑
摘要:先贴代码 还有一种写法: 阅读全文
posted @ 2019-07-18 14:39 嶙羽 阅读(558) 评论(0) 推荐(0) 编辑
摘要:设计了两个隐藏层,激活函数是tanh,使用Adam优化算法,学习率随着epoch的增大而调低 最终达到了0.9828的准确率 阅读全文
posted @ 2019-07-10 12:29 嶙羽 阅读(754) 评论(0) 推荐(0) 编辑
摘要:不同优化器有不同的收敛速度,那么应该怎么选择? 虽然很多新的优化算法比梯度下降快很多,但很多时候我们需要的是准确率而不是优化速度,可以先用较快的优化器来进行模型训练,最后一步步选择合适的优化器 阅读全文
posted @ 2019-07-10 12:20 嶙羽 阅读(255) 评论(0) 推荐(0) 编辑
摘要:前言: 用手工设计的两层神经网络,经过200个epoch,最后得到0.9599,约0.96的精度 正文 其中要注意的地方应该有: loss函数的计算,用了tf.losses.sparse_softmax_cross_entropy这个交叉熵损失函数,其中: labels_的输入是样本是真实标签,类似 阅读全文
posted @ 2019-07-09 15:10 嶙羽 阅读(263) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示