摘要: Stochatic Gradient Descent (S.G.D) 思想:每次从数据集中随机抽取子样本(1 ~ 1000),在子样本中应用梯度下降。 假设每次的子样本都可以很好的代表整体,假设每次猜到的梯度下降的方向是对的,迭代操作直到我们得到结果。 批量梯度下降算法每次都会使用全部训练样本,因此 阅读全文
posted @ 2018-03-22 05:40 火山岩上的小红花 阅读(241) 评论(0) 推荐(0) 编辑
摘要: 一个TensorFlow的运算可以看作是一个数据流图。 一个图呢则由一组操作和数据集组成。 要想使用一个数据流图,必须把它注册为默认的图。 注意:图这个class并不是线程安全的,它所有的方法也不是。 将一个图设为默认的图的方法: as_default(self) 返回一个将Graph设为默认的co 阅读全文
posted @ 2018-03-22 04:11 火山岩上的小红花 阅读(1309) 评论(0) 推荐(2) 编辑