上一页 1 ··· 4 5 6 7 8 9 10 下一页
摘要: 回归:过拟合情况 / 分类过拟合 防止过拟合的方法有三种: 1 增加数据集 2 添加正则项 3 Dropout,意思就是训练的时候隐层神经元每次随机抽取部分参与训练。部分不参与 最后对之前普通神经网络分类mnist数据集的代码进行优化,初始化权重参数的时候采用截断正态分布,偏置项加常数,采用drop 阅读全文
posted @ 2017-10-08 14:12 qilibin 阅读(1896) 评论(1) 推荐(0) 编辑
摘要: 二次代价函数(quadratic cost): 其中,C表示代价函数,x表示样本,y表示实际值,a表示输出值,n表示样本的总数。为简单起见,使用一个样本为例进行说明,此时二次代价函数为: 假如我们使用梯度下降法(Gradient descent)来调整权值参数的大小,权值w和偏置b的梯度推导如下: 阅读全文
posted @ 2017-10-08 10:26 qilibin 阅读(1915) 评论(0) 推荐(0) 编辑
摘要: 首先是不含隐层的神经网络, 输入层是784个神经元 输出层是10个神经元 代码如下 结果如下 接下来是含一个隐层的神经网络,输入层是784个神经元,两个隐层都是100个神经元,输出层是10个神经元,迭代500次,最后准确率在88%左右,汗。。。。准确率反而降低了,慢慢调参吧 阅读全文
posted @ 2017-10-07 20:47 qilibin 阅读(4681) 评论(1) 推荐(1) 编辑
摘要: 做机器学习的同志们应该对这个都不陌生,这里简单举个例子。一般来说,使用softmax函数来将神经元输出的数值映射到0到1之间,这样神经元输出的值就变为了一个概率值。 公式和例子如下图 公式和例子如下图 阅读全文
posted @ 2017-10-07 16:52 qilibin 阅读(322) 评论(0) 推荐(0) 编辑
摘要: 自己搭建神经网络求解非线性回归系数 代码 结果 阅读全文
posted @ 2017-10-07 16:22 qilibin 阅读(456) 评论(0) 推荐(0) 编辑
摘要: 结果 可以看到求得的k和b非常接近于我们定义的k值和b值。 阅读全文
posted @ 2017-10-07 13:54 qilibin 阅读(316) 评论(0) 推荐(0) 编辑
摘要: Fetch的意思就是在一个会话(session)中可以同时运行多个op。 Feed的字面意思是喂养,流入。在tensorflow里面就是说先声明一个或者几个tensor,先用占位符给他们留几个位置,等到后面run的时候,再以其他形式比如字典的形式把值传进去,相当于买了两个存钱罐,先不存钱,等我想存的 阅读全文
posted @ 2017-10-07 13:27 qilibin 阅读(1366) 评论(0) 推荐(0) 编辑
摘要: 代码 结果 阅读全文
posted @ 2017-10-07 13:02 qilibin 阅读(278) 评论(0) 推荐(0) 编辑
摘要: Tensorflow作为目前最热门的机器学习框架之一,受到了工业界和学界的热门追捧。以下几章教程将记录本人学习tensorflow的一些过程。 在tensorflow这个框架里,可以讲是弱数据类型,也就是说不严格声明数据是什么类型,因为在整个过程中玩的都是向量,或者说矩阵和数组,所有的数据都被看做是 阅读全文
posted @ 2017-10-07 10:27 qilibin 阅读(1116) 评论(0) 推荐(0) 编辑
摘要: ndk_r15c (July 2017) Windows 32-bit : https://dl.google.com/android/repository/android-ndk-r15c-windows-x86.zip Windows 64-bit : https://dl.google.com 阅读全文
posted @ 2017-09-27 19:47 qilibin 阅读(1019) 评论(0) 推荐(0) 编辑
上一页 1 ··· 4 5 6 7 8 9 10 下一页