12 2017 档案

摘要:TensorFlow L2正则化 L2正则化在机器学习和深度学习非常常用,在TensorFlow中使用L2正则化非常方便,仅需将下面的运算结果加到损失函数后面即可 阅读全文
posted @ 2017-12-25 11:46 狂徒归来 阅读(5006) 评论(0) 推荐(0) 编辑
摘要:TensorFlow batch normalize的使用 batch normalize 经常与CNN搭配使用,据一些研究表面,在RNN层数不是很深的时候使用batch normalize是会用损害作用的。下面介绍下TensorFlow bath normalize的用法 直接把想normaliz 阅读全文
posted @ 2017-12-25 11:41 狂徒归来 阅读(3454) 评论(0) 推荐(0) 编辑
摘要:听说你的模型损失是NaN 有时候,模型跑着跑着,损失就莫名变NaN了。不过,经验告诉我们,大部分NaN主要是因为除数是0或者传给log的数值不大于0。下面说说是log出NaN的几种常见解决方法。 毕竟, 计算机的是无法表示所有实数的,尽管有些函数得出的结果只能无限近似0,但是由于计算机精度问题,最后 阅读全文
posted @ 2017-12-22 22:27 狂徒归来 阅读(1685) 评论(0) 推荐(0) 编辑
摘要:编译TensorFlow CPU指令集优化版 如题,CPU指令集优化版,说的是针对某种特定的CPU型号进行过优化的版本。通常官方给的版本是没有针对特定CPU进行过优化的,有网友称,优化过的版本相比优化前的版本性能提升大概30%。 下面简单介绍下在Ubuntu上进行Tensor Flow编译 必要的环 阅读全文
posted @ 2017-12-03 14:04 狂徒归来 阅读(2702) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示