摘要:
目录 一元函数的梯度下降法 多元函数的梯度下降法 参考资料 梯度下降是一种迭代式的最优化手段,在机器学习中一般用于求目标函数的极小值点,这个极小值点就是最优的模型内部参数。相比求解析解的手段,GD的通用性更强,所以受到广泛的使用。 一元函数的梯度下降法 比如求解f(x)=(x-1)2的最小值点 梯度 阅读全文
摘要:
目录 导数 偏导数 方向导数 梯度 参考资料 导数 导数反映的是函数y=f(x)在某一点处沿x轴正方向的变化率。 比如y=x2,在x=1处的导数=2。 导数是通过极限来定义的,某一点的导数=tanψ,但是前提是△x趋近于0,此时tanψ=tanα=该点导数,公式如下: 返回目录 偏导数 在多元函数中 阅读全文
摘要:
jdk1.7 scala 2.10.5 spark 1.6.1 http://spark.apache.org/downloads.html hadoop 2.6.4 只需要留bin https://github.com/steveloughran/winutils 环境变量 重启 阅读全文
摘要:
注意: spark用2.1.1 scala用2.11.11 材料准备 spark安装包 JDK 8 IDEA开发工具 scala 2.11.8 环境搭建步骤 将spark-2.1.1-bin-hadoop2.x版本至c盘下即可 将spark中的jar包全部提取出来另外放到一地方用于进行开发 新建ID 阅读全文
摘要:
目录 xgboost原理 xgboost和gbdt的区别 xgboost安装 实战 xgboost原理 xgboost是一个提升模型,即训练多个分类器,然后将这些分类器串联起来,达到最终的预测效果。每一个基分类器都是一个弱分类器,但是很多串联起来后效果很强大。 工作原理: 每次加入一棵新树是为了让目 阅读全文
摘要:
工程目录: 代码实现: # -*- coding: utf-8 -*- import glob import os.path import random import numpy as np import tensorflow as tf from tensorflow.python.platfor 阅读全文
摘要:
此例程出自《TensorFlow实战Google深度学习框架》6.5.2小节 卷积神经网络迁移学习。 数据集来自http://download.tensorflow.org/example_images/flower_photos.tgz ,及谷歌提供的Inception-v3模型https://s 阅读全文
摘要:
网络结构如下: 工程目录: mnist_eval.py mnist_inference.py mnist_train.py 转自:http://blog.csdn.net/nnnnnnnnnnnny/article/details/70216265 阅读全文
摘要:
第一版: # -*- coding: utf-8 -*- import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data INPUT_NODE = 784 # 输入层的节点数。对于MNIST 数据集 阅读全文
摘要:
目录 集成算法 Bagging模型 随机森林优势 Bagging模型集成 集成算法 目的:让机器学习效果更好,三个凑皮匠顶个诸葛亮的思想。 实现思想有: Bagging:训练多个分类器取平均 Boosting:从弱学习器开始加强,通过加权来进行训练 返回目录 Bagging模型 思想:并行训练一堆分 阅读全文