02 2018 档案
摘要:1、字符串格式化方法format的用法: 2、enumerate的用法: 0 这1 是2 一个3 测试 3、datetime包 4、filter函数 5、json模块() 1)json.dumps() 2)json.loads() 6、self的简单讲解: self表示类的实例,而非类,以如下代码为
阅读全文
摘要:迁移学习(概念): 就是将一个问题上训练好的模型通过简单的调整使其适用于一个新的问题。根据论文DeCAF中的结论,可以保留训练好的Inception-3模型中所有卷积层的参数,只是替换最后一层全连接层,在最后这一层全连接层之前的网络层称之为瓶颈层。 将新的图像通过训练好的卷积神经网络直到瓶颈层的过程
阅读全文
摘要:定义LeNet-5模型的前向传播过程: 介绍LeNet-5模型的每一层结构: 1、卷积层 这一层的输入就是原始的图像像素,LeNet-5模型接受的输入层大小为32x32x1,第一个卷积层过滤器的尺寸为5x5,深度为6,不使用全0填充,步长为1。因为没有使用全0填充,所以这一层的输出尺寸为32-5+1
阅读全文
摘要:参考:https://www.cnblogs.com/Yu-FeiFei/p/6800519.html 参考:tensorflow书 1、输入层 输入层是神经网络的输入,在图像处理的卷积神经网络中,它代表一张图片的像素矩阵,一般来说三维矩阵代表一张图片,三维矩阵的长和宽分别代表了图片的大小,三维矩阵
阅读全文
摘要:1、tf.nn.softmax_cross_entropy_with_logits的例子: 2、在tensorboard上显示运行图: 通过在终端输入如下: cd 路径 tensorboard --logdir=路径 浏览器输入:http://localhost:6006/ 得到tensorboar
阅读全文
摘要:参考:http://blog.csdn.net/wangjian1204/article/details/50642732 参考:https://www.zhihu.com/question/38319536 对角化的概念: 已知n x n的矩阵M,如果对于i≠j,Mij=0,则该矩阵为对角矩阵,如
阅读全文
摘要:参考来源:http://pinkyjie.com/2010/08/31/covariance/ 我们知道标准差、均值等是用于描述数据的分布情况,但是这些大多用于一维数据,然而现实生活中会碰到各类多维数据,那么这时候则会涉及到协方差的概念,用于描述两个随机变量的关系,其在单个维度的方差定义表示如下:
阅读全文
摘要:参考:https://www.cnblogs.com/pinard/p/6251584.html 参考:http://blog.csdn.net/u010099080/article/details/68060274 参考:https://www.zhihu.com/question/2223750
阅读全文
摘要:参考:https://www.cnblogs.com/harvey888/p/7100815.html 1、凸集 有凸集C,对任意及,都满足: 几何意义表现为: 如果集合C上的任意两个点的连线也在C集中,那么C为凸集。图形表示如下: 2、凸函数 对于集合D(f),任意,均能满足: 由(1)中凸集的概
阅读全文
摘要:参考:tensorflow书 1、模型的导出: 2、模型的导入: 例1:模型的导入、导出的应用 接上(若对变量名字作了改变,则在tf.train.Saver()中引入字典来作调整): 3、迭代的计数表示: 参考:http://blog.csdn.net/shenxiaolu1984/article/
阅读全文