随笔分类 -  神经网络

摘要:一、Transition-based的依存解析方法 解析过程:首先设计一系列action, 其就是有方向带类型的边,接着从左向右依次解析句子中的每一个词,解析词的同时通过选择某一个action开始增量构建依存树, 直到句子中的词解析完. 优点:解析过程是线性的, operations步骤随句子长度线 阅读全文
posted @ 2018-10-08 09:55 陈泽泽 阅读(2512) 评论(0) 推荐(0) 编辑
摘要:tf.nn.conv2d 这个函数的功能是:给定4维的input和filter,计算出一个2维的卷积结果。函数的定义为: input:待卷积的数据。格式要求为一个张量,[batch, in_height, in_width, in_channels]. 分别表示 批次数,图像高度,宽度,输入通道数。 阅读全文
posted @ 2018-01-23 15:19 陈泽泽 阅读(240) 评论(0) 推荐(0) 编辑
摘要:官方的接口是这样的 tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None, name=None) 根据给出的keep_prob参数,将输入tensor x按比例输出。 默认情况下, 每个元素保存或丢弃都是独立的。 x : 输入tensorke 阅读全文
posted @ 2018-01-23 11:25 陈泽泽 阅读(1211) 评论(0) 推荐(0) 编辑
摘要:tf.nn.embedding_lookup函数的用法主要是选取一个张量里面索引对应的元素。tf.nn.embedding_lookup(tensor, id):tensor就是输入张量,id就是张量对应的索引,其他的参数不介绍。 例如: 输出: [[ 0.77505197] [ 0.2063581 阅读全文
posted @ 2018-01-23 10:50 陈泽泽 阅读(2253) 评论(0) 推荐(0) 编辑
摘要:name_scope 是给op_name加前缀 variable_scope是给get_variable()创建的变量的名字加前缀。 tf.train.Saver函数 用于保存模型,以后再用就可以直接导入模型进行计算 tf.global_variables_initializer() 将所有全局变量 阅读全文
posted @ 2018-01-19 10:19 陈泽泽 阅读(95) 评论(0) 推荐(0) 编辑
摘要:用惯了theano.再用tensoflow发现一运行显存就满载了,吓得我吃了一个苹果。 用天朝搜索引擎毛都搜不到,于是FQ找了下问题的解决方法,原来有两种 按比例 按需求增长(theano那种) 阅读全文
posted @ 2018-01-17 10:13 陈泽泽 阅读(224) 评论(0) 推荐(0) 编辑