// // // //

2019年4月4日

摘要: xgboost是个准确率很高的集成学习框架,在很多比赛中成绩优异。 大多数的集成学习都使用决策树作为基分类器,主要是因为本身要训练多个分类器,而决策树速度很快,总体时间相对较少。 决策树 在讲xgboost之前,先描述一下决策树,后面要用到这些符号 决策树是把输入x映射到一个叶节点中,这个过程我们记 阅读全文
posted @ 2019-04-04 14:38 努力的孔子 阅读(1820) 评论(0) 推荐(0) 编辑
 

2019年3月31日

摘要: cnn发展史 这是imageNet比赛的历史成绩 可以看到准确率越来越高,网络越来越深。 加深网络比加宽网络有效的多,这已是公认的结论。 cnn结构演化图 AlexNet 诞生于2012年,因为当时用了两个GPU(硬件设备差),所以结构图是2组并行 网络结构总共8层,5个卷积层,3个全连接层,最后输 阅读全文
posted @ 2019-03-31 10:57 努力的孔子 阅读(10029) 评论(0) 推荐(1) 编辑
 
摘要: 图片读取有多种方式,这里先记录几种,以后慢慢更新 tf.read_file 直接读取图片内容,需要解码;输出为Tensor,需要转换数据格式 示例代码 filename = 'myfiles/2.png' img_content = tf.read_file(filename) # 读取图片 img 阅读全文
posted @ 2019-03-31 10:55 努力的孔子 阅读(609) 评论(0) 推荐(0) 编辑
 
摘要: tensorflow,tensor就是数据,flow就是流,tensorflow就是数据流 tensorflow 是一个用计算图的形式来表示计算的编程系统,所有的数据和计算都会被转化成计算图上的一个节点,节点之间的边就是数据流(数据流动的轨迹)。 graph 和 session 的关系 tensor 阅读全文
posted @ 2019-03-31 09:43 努力的孔子 阅读(1515) 评论(0) 推荐(0) 编辑
 

2019年3月29日

摘要: tf用 tf.train.Saver类来实现神经网络模型的保存和读取。无论保存还是读取,都首先要创建saver对象。 用saver对象的save方法保存模型 保存的是所有变量 保存模型需要session,初始化变量 用法示例 输出 1. global_step 放在文件名后面,起个标记作用 2. s 阅读全文
posted @ 2019-03-29 12:02 努力的孔子 阅读(2177) 评论(0) 推荐(1) 编辑
 

2019年3月27日

摘要: 队列 tf与python一样,有多种队列 tf.FIFOQueue 先入先出 tf.RandomShuffleQueue 随机出队 tf.PaddingFIFOQueue 以固定长度批量出列的队列 tf.PriorityQueue 带优先级出列的队列 使用逻辑都类似 tf.FIFOQueue(cap 阅读全文
posted @ 2019-03-27 15:39 努力的孔子 阅读(904) 评论(0) 推荐(0) 编辑
 
摘要: 问题描述: 明明安装了numpy,而且经常使用并没有发生错误,却发生如下错误 No module named 'numpy.core._multiarray_umath 解决方法: 1. 可能是由于模型保存时出错,导致模型没有保存成功,此时删掉保存的模型即可 2. numpy版本太低 显示版本 pi 阅读全文
posted @ 2019-03-27 15:36 努力的孔子 阅读(11698) 评论(0) 推荐(0) 编辑
 
摘要: 官网解释说 tensorflow 读取数据有 3 种方式 1. feed:供给数据,每次迭代 临时 生成数据,喂给 模型 2. 从文件中读取:本文主讲 3. 预加载数据:定义常量或者变量来保存数据,仅适用小数据量 从文件读取有 3 大步骤 1. 生成读取器,不同类型的文件有对应的读取器 2. 把文件 阅读全文
posted @ 2019-03-27 09:08 努力的孔子 阅读(539) 评论(0) 推荐(0) 编辑
 

2019年3月26日

摘要: Batch Normalization,拆开来看,第一个单词意思是批,出现在梯度下降的概念里,第二个单词意思是标准化,出现在数据预处理的概念里。 我们先来看看这两个概念。 数据预处理 方法很多,后面我会在其他博客中专门讲,这里简单回忆下 归一化,x-min/max-min, 标准化,包括标准差标准化 阅读全文
posted @ 2019-03-26 09:47 努力的孔子 阅读(1206) 评论(0) 推荐(0) 编辑
 

2019年3月22日

摘要: resnet 又叫深度残差网络 图像识别准确率很高,主要作者是国人哦 深度网络的退化问题 深度网络难以训练,梯度消失,梯度爆炸,老生常谈,不多说 resnet 解决了这个问题,并且将网络深度扩展到了最多152层。怎么解决的呢? 残差学习 结构如图 在普通的卷积过程中加入了一个x的恒等映射(ident 阅读全文
posted @ 2019-03-22 14:02 努力的孔子 阅读(23146) 评论(1) 推荐(2) 编辑