摘要: Unsurpervised Learning Neighbor Embedding 1、什么是流形学习 2、LLE(Locally Linear Embedding) 3、LE(Laplacian Eigenmaps) 4、T-SNE(t Stochastic Neighbor Embedding) 阅读全文
posted @ 2019-08-16 17:14 zr-zhang2019 阅读(545) 评论(0) 推荐(0) 编辑
摘要: Unsurpervised Learning 1、深度生成模型“无中生有” 2、VAE(Variational auto-encoder) 一、什么是VAE、为什么用VAE 二、如何实现VAE 三、关于VAE思考 3、GAN(Generative Adversarial Network) Deep 阅读全文
posted @ 2019-08-15 11:37 zr-zhang2019 阅读(957) 评论(0) 推荐(0) 编辑
摘要: 无监督学习 1、无监督学习的概念 什么叫无监督学习(输入都是无label的数据,没有训练集之说) 无监督学习的两大任务:“化繁为简”(聚类、降维)、“无中生有” 2、聚类Clustering(K-means、HAC) 3、降维Dimension Reduction(PCA) 1、无监督学习的概念 一 阅读全文
posted @ 2019-08-08 20:33 zr-zhang2019 阅读(807) 评论(0) 推荐(0) 编辑
摘要: Logistic Regression逻辑回归 思路: 1、逻辑回归 vs 线性回归(Logistics Regression VS Linear Regression ) 2、生成模型 vs 判别模型(Generative Model VS Discriminative Model) 3、逻辑回归 阅读全文
posted @ 2019-08-05 10:21 zr-zhang2019 阅读(628) 评论(0) 推荐(0) 编辑
摘要: Tips of Deep Learning 1、先检查training 是否有比较好的结果 training优化方法: 1)换激活函数(Sigmoid、ReLU、Maxout、Tanh、Softmax) 2)优化器——优化gd和自适应调学习率(SGD、Adagrad、RMSProp、Momentum 阅读全文
posted @ 2019-08-02 14:36 zr-zhang2019 阅读(804) 评论(0) 推荐(0) 编辑
摘要: Deep Learning >DNN(深度神经网络) 思路: 1、什么是深度学习 2、深度学习的步骤 3、如何优化(调参问题描述) 问题描述:参数更新的过程、training data 与参数更新的关系(训练过程) 4、Back Propagation方法update DNN参数 1、什么是深度学习 阅读全文
posted @ 2019-07-26 13:13 zr-zhang2019 阅读(1229) 评论(0) 推荐(0) 编辑
摘要: Regression 1、首先,什么是regression(回归) 2、然后,实现回归的步骤(机器学习的步骤) step1、model(确定一个模型)——线性模型 step2、goodness of function(确定评价函数)——损失函数 step3、best function(找出最好的一个 阅读全文
posted @ 2019-07-21 11:59 zr-zhang2019 阅读(11434) 评论(0) 推荐(1) 编辑
摘要: 分类问题:概率生成模型 概念:(从概率生成模型到判别模型) 概率生成模型:由数据学习联合概率密度分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型。例如:朴素贝叶斯、隐马尔可夫(em算法) 判别模型:由数据直接学习决策函数Y=f(X)或者条件概率分布P(Y|X)作为预测的模型。例如:k 阅读全文
posted @ 2019-07-20 16:42 zr-zhang2019 阅读(1519) 评论(0) 推荐(0) 编辑
摘要: model的误差来源分析 思路: 1、首先,error的两大来源bias和variance是指什么 2、然后,bias和variance是怎么产生的 3、进一步,如何判断你的model是bias大(欠拟合)还是variance大(过拟合),如何解决 4、最后,结论 1、首先,error的两大来源bi 阅读全文
posted @ 2019-07-19 20:23 zr-zhang2019 阅读(805) 评论(0) 推荐(0) 编辑