2018年9月25日

摘要: 原文: http://blog.csdn.net/zhaocj/article/details/50764093 https://blog.csdn.net/App_12062011/article/details/52153878 一、原理 K近邻算法(KNN,K-NearestNeighbors 阅读全文
posted @ 2018-09-25 16:34 西沟冯衙内 阅读(218) 评论(0) 推荐(0) 编辑

2018年8月30日

摘要: 在训练神经网络时,控制学习率对训练的速度和准确度都有很大作用.逐渐减小学习率在实践中被证明对训练的收敛有正向效果,Tensorflow自带两种衰减方法:指数衰减和多项式衰减 tf.train.expotional_decay 在Tensorflow API r1.4是这样定义的: 参数: learn 阅读全文
posted @ 2018-08-30 21:18 西沟冯衙内 阅读(330) 评论(0) 推荐(0) 编辑

2018年8月29日

摘要: 模型保存 https://blog.csdn.net/qiusuoxiaozi/article/details/78201796 阅读全文
posted @ 2018-08-29 11:24 西沟冯衙内 阅读(64) 评论(0) 推荐(0) 编辑

2018年8月27日

摘要: 原文:https://www.quora.com/In-classification-how-do-you-handle-an-unbalanced-training-set 在分类中如何处理训练集中不平衡问题 在很多机器学习任务中,训练集中可能会存在某个或某些类别下的样本数远大于另一些类别下的样本 阅读全文
posted @ 2018-08-27 17:07 西沟冯衙内 阅读(500) 评论(0) 推荐(0) 编辑

2018年8月24日

摘要: 1 import tensorflow as tf 2 import numpy as np 3 def addLayer(inputData,inSize,outSize,activity_function = None): 4 Weights = tf.Variable(tf.random_no 阅读全文
posted @ 2018-08-24 11:49 西沟冯衙内 阅读(144) 评论(0) 推荐(0) 编辑

2018年8月23日

摘要: 我的数据: 6.1101,17.592 5.5277,9.1302 8.5186,13.662 7.0032,11.854 5.8598,6.8233 8.3829,11.886 7.4764,4.3483 若格式为txt,则先转为Csv格式 得到file.csv文件,其中ex1data1.txt为 阅读全文
posted @ 2018-08-23 14:51 西沟冯衙内 阅读(97) 评论(0) 推荐(0) 编辑
摘要: 一、Map 簡介 Map是STL的一個容器,它提供一對一的hash。 第一個可以稱為關鍵字(key),每個關鍵字只能在map中出現一次, 第二個可能稱為該關鍵字的值(value) Map以模板(泛型)方式實現,可以儲存任意類型的變數,包括使用者自定義的資料型態。Map主要用於資料一對一映射(one- 阅读全文
posted @ 2018-08-23 14:46 西沟冯衙内 阅读(111) 评论(0) 推荐(0) 编辑