上一页 1 2 3 4 5 6 7 ··· 33 下一页
摘要: tf.nn.conv2d 这个函数的功能是:给定4维的input和filter,计算出一个2维的卷积结果。函数的定义为: input:待卷积的数据。格式要求为一个张量,[batch, in_height, in_width, in_channels]. 分别表示 批次数,图像高度,宽度,输入通道数。 阅读全文
posted @ 2018-01-23 15:19 陈泽泽 阅读(240) 评论(0) 推荐(0) 编辑
摘要: 官方的接口是这样的 tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None, name=None) 根据给出的keep_prob参数,将输入tensor x按比例输出。 默认情况下, 每个元素保存或丢弃都是独立的。 x : 输入tensorke 阅读全文
posted @ 2018-01-23 11:25 陈泽泽 阅读(1211) 评论(0) 推荐(0) 编辑
摘要: tf.nn.embedding_lookup函数的用法主要是选取一个张量里面索引对应的元素。tf.nn.embedding_lookup(tensor, id):tensor就是输入张量,id就是张量对应的索引,其他的参数不介绍。 例如: 输出: [[ 0.77505197] [ 0.2063581 阅读全文
posted @ 2018-01-23 10:50 陈泽泽 阅读(2253) 评论(0) 推荐(0) 编辑
摘要: name_scope 是给op_name加前缀 variable_scope是给get_variable()创建的变量的名字加前缀。 tf.train.Saver函数 用于保存模型,以后再用就可以直接导入模型进行计算 tf.global_variables_initializer() 将所有全局变量 阅读全文
posted @ 2018-01-19 10:19 陈泽泽 阅读(95) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2018-01-18 11:25 陈泽泽 阅读(1) 评论(0) 推荐(0) 编辑
摘要: 用惯了theano.再用tensoflow发现一运行显存就满载了,吓得我吃了一个苹果。 用天朝搜索引擎毛都搜不到,于是FQ找了下问题的解决方法,原来有两种 按比例 按需求增长(theano那种) 阅读全文
posted @ 2018-01-17 10:13 陈泽泽 阅读(224) 评论(0) 推荐(0) 编辑
摘要: 目标: 怎么训练很深的神经网络 然而过深的神经网络会造成各种问题,梯度消失之类的,导致很难训练 作者利用了类似LSTM的方法,通过增加gate来控制transform前和transform后的数据的比例,称为Highway network 至于为什么会有效...大概和LSTM会有效的原因一样吧。 方 阅读全文
posted @ 2018-01-12 09:50 陈泽泽 阅读(1332) 评论(1) 推荐(0) 编辑
摘要: Progressive NN Progressive NN是第一篇我看到的deepmind做这个问题的。思路就是说我不能忘记第一个任务的网络,同时又能使用第一个任务的网络来做第二个任务。 为了不忘记之前的任务,他们的方法简单暴力:对所有的之前任务的网络,保留并且fix,每次有一个新任务就新建一个网络 阅读全文
posted @ 2018-01-11 14:50 陈泽泽 阅读(6308) 评论(0) 推荐(0) 编辑
摘要: 1、LinkedBlockingQueue: 基于链接节点的可选限定的blocking queue 。 这个队列排列元素FIFO(先进先出)。 队列的头部是队列中最长的元素。 队列的尾部是队列中最短时间的元素。 新元素插入队列的尾部,队列检索操作获取队列头部的元素。 链接队列通常具有比基于阵列的队列 阅读全文
posted @ 2018-01-11 14:23 陈泽泽 阅读(309) 评论(0) 推荐(0) 编辑
摘要: 什么是Convolutional Neural Network(卷积神经网络)? 最早应该是LeCun(1998)年论文提出,其结果如下:运用于手写数字识别。详细就不介绍,可参考zouxy09的专栏,主要关注convolution、pooling,个人理解是这样的,convolution是做特征检测 阅读全文
posted @ 2018-01-09 19:28 陈泽泽 阅读(586) 评论(0) 推荐(0) 编辑
摘要: 1. 前言 多任务学习(Multi-task learning)是和单任务学习(single-task learning)相对的一种机器学习方法。在机器学习领域,标准的算法理论是一次学习一个任务,也就是系统的输出为实数的情况。复杂的学习问题先被分解成理论上独立的子问题,然后分别对每个子问题进行学习, 阅读全文
posted @ 2018-01-08 19:02 陈泽泽 阅读(13058) 评论(0) 推荐(1) 编辑
摘要: crontab -l crontab -e 每五分钟执行 */5 * * * * 每小时执行 0 * * * * 每2小时执行 0 */2 * * * 每天执行 0 0 * * * 每周执行 0 0 * * 0 每月执行 0 0 1 * * 每年执行 0 0 1 1 * 星号(*):代表所有可能的值 阅读全文
posted @ 2018-01-02 20:17 陈泽泽 阅读(2262) 评论(1) 推荐(0) 编辑
摘要: 在CNN模型中,卷积就是拿**kernel**在图像上到处移动,每移动一次提取一次特征,组成feature map, 这个提取特征的过程,就是卷积。 接下来,我们看看Yoon Kim的paper:[Convolutional Neural Networks for Sentence Classifi 阅读全文
posted @ 2018-01-02 19:51 陈泽泽 阅读(4062) 评论(1) 推荐(0) 编辑
摘要: 指定文件字符集为utf-8 在文件头部加入以下代码: import sys reload(sys) sys.setdefaultencoding('utf-8') 阅读全文
posted @ 2017-12-28 20:57 陈泽泽 阅读(7376) 评论(0) 推荐(0) 编辑
摘要: import subprocess import base64 thunder_path = 'E:\Thunder\Program\Thunder.exe' def Url2Thunder(url): url = 'AA' + url + 'ZZ' url = base64.b64encode(url.encode('ascii')) url = b'thunder... 阅读全文
posted @ 2017-12-17 16:03 陈泽泽 阅读(2246) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 33 下一页