会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
//
// // //
努力的孔子
上一页
1
···
33
34
35
36
37
38
39
40
41
下一页
2019年4月4日
集成学习-xgboost
摘要: xgboost是个准确率很高的集成学习框架,在很多比赛中成绩优异。 大多数的集成学习都使用决策树作为基分类器,主要是因为本身要训练多个分类器,而决策树速度很快,总体时间相对较少。 决策树 在讲xgboost之前,先描述一下决策树,后面要用到这些符号 决策树是把输入x映射到一个叶节点中,这个过程我们记
阅读全文
posted @ 2019-04-04 14:38 努力的孔子
阅读(1820)
评论(0)
推荐(0)
编辑
2019年3月31日
cnn 经典网络结构 解析
摘要: cnn发展史 这是imageNet比赛的历史成绩 可以看到准确率越来越高,网络越来越深。 加深网络比加宽网络有效的多,这已是公认的结论。 cnn结构演化图 AlexNet 诞生于2012年,因为当时用了两个GPU(硬件设备差),所以结构图是2组并行 网络结构总共8层,5个卷积层,3个全连接层,最后输
阅读全文
posted @ 2019-03-31 10:57 努力的孔子
阅读(10029)
评论(0)
推荐(1)
编辑
tensorflow - 图片读取汇总
摘要: 图片读取有多种方式,这里先记录几种,以后慢慢更新 tf.read_file 直接读取图片内容,需要解码;输出为Tensor,需要转换数据格式 示例代码 filename = 'myfiles/2.png' img_content = tf.read_file(filename) # 读取图片 img
阅读全文
posted @ 2019-03-31 10:55 努力的孔子
阅读(609)
评论(0)
推荐(0)
编辑
tensorflow基础【4】-计算图 graph
摘要: tensorflow,tensor就是数据,flow就是流,tensorflow就是数据流 tensorflow 是一个用计算图的形式来表示计算的编程系统,所有的数据和计算都会被转化成计算图上的一个节点,节点之间的边就是数据流(数据流动的轨迹)。 graph 和 session 的关系 tensor
阅读全文
posted @ 2019-03-31 09:43 努力的孔子
阅读(1515)
评论(0)
推荐(0)
编辑
2019年3月29日
tf 模型保存
摘要: tf用 tf.train.Saver类来实现神经网络模型的保存和读取。无论保存还是读取,都首先要创建saver对象。 用saver对象的save方法保存模型 保存的是所有变量 保存模型需要session,初始化变量 用法示例 输出 1. global_step 放在文件名后面,起个标记作用 2. s
阅读全文
posted @ 2019-03-29 12:02 努力的孔子
阅读(2177)
评论(0)
推荐(1)
编辑
2019年3月27日
tensorflow基础【10】-队列与多线程
摘要: 队列 tf与python一样,有多种队列 tf.FIFOQueue 先入先出 tf.RandomShuffleQueue 随机出队 tf.PaddingFIFOQueue 以固定长度批量出列的队列 tf.PriorityQueue 带优先级出列的队列 使用逻辑都类似 tf.FIFOQueue(cap
阅读全文
posted @ 2019-03-27 15:39 努力的孔子
阅读(904)
评论(0)
推荐(0)
编辑
异常记录-No module named 'numpy.core._multiarray_umath
摘要: 问题描述: 明明安装了numpy,而且经常使用并没有发生错误,却发生如下错误 No module named 'numpy.core._multiarray_umath 解决方法: 1. 可能是由于模型保存时出错,导致模型没有保存成功,此时删掉保存的模型即可 2. numpy版本太低 显示版本 pi
阅读全文
posted @ 2019-03-27 15:36 努力的孔子
阅读(11698)
评论(0)
推荐(0)
编辑
tensorflow基础【9】-读取数据
摘要: 官网解释说 tensorflow 读取数据有 3 种方式 1. feed:供给数据,每次迭代 临时 生成数据,喂给 模型 2. 从文件中读取:本文主讲 3. 预加载数据:定义常量或者变量来保存数据,仅适用小数据量 从文件读取有 3 大步骤 1. 生成读取器,不同类型的文件有对应的读取器 2. 把文件
阅读全文
posted @ 2019-03-27 09:08 努力的孔子
阅读(539)
评论(0)
推荐(0)
编辑
2019年3月26日
Batch Normalization 引出的一系列问题
摘要: Batch Normalization,拆开来看,第一个单词意思是批,出现在梯度下降的概念里,第二个单词意思是标准化,出现在数据预处理的概念里。 我们先来看看这两个概念。 数据预处理 方法很多,后面我会在其他博客中专门讲,这里简单回忆下 归一化,x-min/max-min, 标准化,包括标准差标准化
阅读全文
posted @ 2019-03-26 09:47 努力的孔子
阅读(1206)
评论(0)
推荐(0)
编辑
2019年3月22日
CNN 经典网络之-ResNet
摘要: resnet 又叫深度残差网络 图像识别准确率很高,主要作者是国人哦 深度网络的退化问题 深度网络难以训练,梯度消失,梯度爆炸,老生常谈,不多说 resnet 解决了这个问题,并且将网络深度扩展到了最多152层。怎么解决的呢? 残差学习 结构如图 在普通的卷积过程中加入了一个x的恒等映射(ident
阅读全文
posted @ 2019-03-22 14:02 努力的孔子
阅读(23146)
评论(1)
推荐(2)
编辑
上一页
1
···
33
34
35
36
37
38
39
40
41
下一页
导航
博客园
首页
新随笔
新文章
联系
订阅
管理