01 2018 档案
摘要:这是因为目前的protoc3.5有Bug,换成3.4就好了https://github.com/google/protobuf/releases/tag/v3.4.0
阅读全文
摘要:在跑的时候可以让加些选项: with tf.Session(config=tf.ConfigProto(allow_soft_placement=True, log_device_placement=True)): 其中allow_soft_placement能让tensorflow遇到无法用GPU
阅读全文
摘要:如果有同学没有MINST数据,请到http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/mnist_download.html下载,或者QQ问我
阅读全文
摘要:后记:其实发现原因后感觉自己很蠢,是自己开了一个软件叫adsafe,会屏蔽一些东西,所以我拼命的用自己的电脑ip都连不上,换成回环地址就好了,把软件关了也可以。 在无数种尝试后,终于在stackoverflow上找到一种方法:https://stackoverflow.com/questions/4
阅读全文
摘要:卷积神经网络比神经网络多了卷积2个字,但是其实一般多了2个层:卷积层和池化层。卷积层的作用主要是用来提取特征的,而且能保存好空间结构,因为在全连接层,直接把向量给拉平了。设立多个卷积层,就能提取各种各样的特征。然后就是池化层,它的作用是降采样,就是去除一些图片中“不重要”的东西(把平面维度变小,比如
阅读全文
摘要:1.理解线性分类器 目前我了解学习的线性分类器有2个:SVM和逻辑回归(也就是SoftMax),这2个分类器的主体都是一样,不同的地方就是生成损失函数不一样。所以我先讲主体,再讲损失函数,关于线性分类器,大体就是这个样子: 图片说明:生成这三根直线就是三个线性分类器,如果生成了这三根直线后,后面再有
阅读全文
摘要:1.反向传播 关于反向传播我的理解是这样的,SVM和SoftMax可以看成一层神经网络,你如果想要调整它的W很简单,只有求导就可以了,但是当神经网络有多层的话,你无法直接求导来更新最开始层的W,于是就出现了反向传播这个工具。至于神经网络为什么需要多层,理由有很多,我先举个例子,比如一个汽车在图片里面
阅读全文
摘要:K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 如:绿色圆要被决定赋予哪个类,是红色三角形还
阅读全文