01 2018 档案

tensorflow sequence_loss
摘要:sequence_loss是nlp算法中非常重要的一个函数.rnn,lstm,attention都要用到这个函数.看下面代码: 先对每个[0.5,0.5,0.5,0.5]取softmax. softmax([0.5,0.5,0.5,0.5])=(0.25,0.25,0.25,0.25)然后再计算 l 阅读全文

posted @ 2018-01-23 22:30 荷楠仁 阅读(1911) 评论(1) 推荐(0) 编辑

复现梯度爆炸与梯度消失
摘要:在训练rnn模型时,很可能会遇到一段时间后,无论怎么训练,损失函数都不变化的情况.仿佛时间静止了一样.这时候很可能是大多数参数都不变了.也就是遇到了梯度消失的问题. 原理 令 $$ \begin{equation } \sigma(x)=\frac{1}{1+e^{ x}} \end{equatio 阅读全文

posted @ 2018-01-18 17:57 荷楠仁 阅读(778) 评论(0) 推荐(0) 编辑

用tensorflow求偏导
摘要:``` # coding:utf-8 from __future__ import absolute_import from __future__ import unicode_literals from __future__ import print_function from __future__ import division import tensorflow as tf x = tf... 阅读全文

posted @ 2018-01-16 17:40 荷楠仁 阅读(618) 评论(0) 推荐(0) 编辑

tensorboard的使用
摘要:``` # coding: utf-8 from __future__ import print_function from __future__ import division import tensorflow as tf import numpy as np import os import argparse def dense_to_one_hot(input_data, class... 阅读全文

posted @ 2018-01-16 17:25 荷楠仁 阅读(225) 评论(0) 推荐(0) 编辑

导航

统计

点击右上角即可分享
微信分享提示