随笔分类 -  tensorflow

摘要:在mask_rcnn常用的函数 1 tf.cast(): https://blog.csdn.net/dss875914213/article/details/86558407 2 tf.gather : https://blog.csdn.net/guotong1988/article/detai 阅读全文
posted @ 2019-04-02 12:50 水木清扬 阅读(119) 评论(0) 推荐(0) 编辑
只有注册用户登录后才能阅读该文。
posted @ 2019-01-07 21:05 水木清扬 阅读(4) 评论(0) 推荐(0) 编辑
摘要:http://www.cnblogs.com/mstk/p/10009113.html Keras版本的Faster R-CNN源码下载地址:https://github.com/yhenon/keras-frcnn下载以后,用PyCharm打开(前提是已经安装了Tensorflow-gpu和Ker 阅读全文
posted @ 2018-12-20 14:43 水木清扬 阅读(1673) 评论(3) 推荐(0) 编辑
摘要:https://blog.csdn.net/eereere/article/details/80176007 参考资料code:https://github.com/ildoonet/tf-pose-estimationpaper:https://arxiv.org/pdf/1611.08050.p 阅读全文
posted @ 2018-12-11 16:12 水木清扬 阅读(4975) 评论(0) 推荐(0) 编辑
摘要:参考:https://www.youtube.com/watch?v=lLM8oAsi32g import cv2 import numpy as np def random_colors(N): np.random.seed(1) colors=[tuple(255*np.random.rand( 阅读全文
posted @ 2018-12-11 16:09 水木清扬 阅读(3891) 评论(2) 推荐(0) 编辑
摘要:转载:https://blog.csdn.net/u011311291/article/details/81121519 https://blog.csdn.net/qq_34564612/article/details/79138876 2018年07月19日 19:43:58 姚贤贤 阅读数:1 阅读全文
posted @ 2018-12-11 15:57 水木清扬 阅读(1248) 评论(0) 推荐(0) 编辑
摘要:提取保存的参数进行准确率验证 结果 初始化后没有经过训练的参数准确率低 训练后从模型中提取的参数准确率高 阅读全文
posted @ 2018-11-16 16:46 水木清扬 阅读(807) 评论(0) 推荐(0) 编辑
摘要:第二修改部分:(上面的可能运行GPU会耗尽) #coding:utf-8 import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_se 阅读全文
posted @ 2018-11-16 10:48 水木清扬 阅读(316) 评论(0) 推荐(0) 编辑
摘要:原理就不多讲了,直接上代码,有详细注释。 结果 下面来一个简洁版本的 # load MNIST datafrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("Mnist 阅读全文
posted @ 2018-11-16 10:42 水木清扬 阅读(458) 评论(0) 推荐(0) 编辑
摘要:tensorboard可以将训练过程中的一些参数可视化,比如我们最关注的loss值和accuracy值,简单来说就是把这些值的变化记录在日志里,然后将日志里的这些数据可视化。 首先运行训练代码 注意我将训练日志保存在 /home/xxx/logs/ 路径下,打开终端,输入以下命令 tensorboa 阅读全文
posted @ 2018-11-16 10:29 水木清扬 阅读(298) 评论(0) 推荐(0) 编辑
摘要:Tensorflow学习教程 过拟合 回归:过拟合情况 / 分类过拟合 防止过拟合的方法有三种: 1 增加数据集 2 添加正则项 3 Dropout,意思就是训练的时候隐层神经元每次随机抽取部分参与训练。部分不参与 最后对之前普通神经网络分类mnist数据集的代码进行优化,初始化权重参数的时候采用截 阅读全文
posted @ 2018-11-16 10:28 水木清扬 阅读(270) 评论(0) 推荐(0) 编辑
摘要:Tensorflow学习教程 代价函数 二次代价函数(quadratic cost): 其中,C表示代价函数,x表示样本,y表示实际值,a表示输出值,n表示样本的总数。为简单起见,使用一个样本为例进行说明,此时二次代价函数为: 假如我们使用梯度下降法(Gradient descent)来调整权值参数 阅读全文
posted @ 2018-11-16 10:27 水木清扬 阅读(332) 评论(0) 推荐(0) 编辑
摘要:首先是不含隐层的神经网络, 输入层是784个神经元 输出层是10个神经元 代码如下 结果如下 接下来是含一个隐层的神经网络,输入层是784个神经元,两个隐层都是100个神经元,输出层是10个神经元,迭代500次,最后准确率在88%左右,汗。。。。准确率反而降低了,慢慢调参吧 阅读全文
posted @ 2018-11-15 11:34 水木清扬 阅读(200) 评论(0) 推荐(0) 编辑
摘要:做机器学习的同志们应该对这个都不陌生,这里简单举个例子。一般来说,使用softmax函数来将神经元输出的数值映射到0到1之间,这样神经元输出的值就变为了一个概率值。 公式和例子如下图 公式和例子如下图 阅读全文
posted @ 2018-11-14 22:16 水木清扬 阅读(235) 评论(0) 推荐(0) 编辑
摘要:结果 可以看到求得的k和b非常接近于我们定义的k值和b值。 阅读全文
posted @ 2018-11-14 22:15 水木清扬 阅读(165) 评论(0) 推荐(0) 编辑
摘要:自己搭建神经网络求解非线性回归系数 代码 #coding:utf-8 import tensorflow as tf import numpy as np import matplotlib.pyplot as plt #使用numpy 生成200个随机点 x_data = np.linspace( 阅读全文
posted @ 2018-11-14 22:15 水木清扬 阅读(383) 评论(0) 推荐(0) 编辑
摘要:#coding:utf-8 import tensorflow as tf #Fetch input1 = tf.constant(3.0) input2 = tf.constant(1.0) input3 = tf.constant(5.0) add = tf.add(input1,input2) 阅读全文
posted @ 2018-11-14 22:14 水木清扬 阅读(249) 评论(0) 推荐(0) 编辑
摘要:#coding:utf-8 import tensorflow as tf x = tf.Variable([1,2]) a = tf.constant([3,3]) #增加一个减法op sub = tf.subtract(x,a) #增加一个加法op add = tf.add(x,sub) #有变 阅读全文
posted @ 2018-11-14 22:13 水木清扬 阅读(157) 评论(0) 推荐(0) 编辑
摘要:参考博客:https://www.cnblogs.com/cnugis/p/7635128.html视频链接:https://www.bilibili.com/video/av20542427?from=search&seid=3218324014806772997 Tensorflow作为目前最热 阅读全文
posted @ 2018-11-14 22:12 水木清扬 阅读(175) 评论(0) 推荐(0) 编辑
摘要:从零开始Windows环境下安装python+tensorflow 2017年07月12日 02:30:47 qq_16257817 阅读数:29173 标签: windowspython机器学习tensorflowAnaconda 更多 个人分类: machine-learning 从零开始Win 阅读全文
posted @ 2018-11-04 14:52 水木清扬 阅读(332) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示