随笔分类 -  Brain-ML

Algorithm and CNN
摘要:From: 2.3.5 Clustering - Spectral clustering From: 漫谈 Clustering (4): Spectral Clustering From: 漫谈 Clustering (番外篇): Dimensionality Reduction 传统方式的弊端 阅读全文
posted @ 2017-09-14 17:59 郝壹贰叁 阅读(941) 评论(0) 推荐(0) 编辑
摘要:最重要的一点是:Bayesian GMM为什么拟合的更好? PRML 这段文字做了解释: Ref: http://freemind.pluskid.org/machine-learning/deciding-the-number-of-clusterings/ 链接中提到了一些其他的无监督聚类。 F 阅读全文
posted @ 2017-09-13 22:27 郝壹贰叁 阅读(2435) 评论(0) 推荐(0) 编辑
摘要:原理请观良心视频:机器学习课程 Expectation Maximisation Expectation-maximization is a well-founded statistical algorithm to get around this problem by an iterative p 阅读全文
posted @ 2017-09-13 19:56 郝壹贰叁 阅读(3781) 评论(0) 推荐(0) 编辑
摘要:参考: 2.3. Clustering 2.4. Biclustering 2.1.2.3. The Dirichlet Process Clusering, GMM, Variational Inference, The Dirchlet Process 这是一个学习渐进的过程,那么,就先从聚类开 阅读全文
posted @ 2017-09-13 19:52 郝壹贰叁 阅读(272) 评论(0) 推荐(0) 编辑
摘要:Ref: http://scikit-learn.org/stable/modules/lda_qda.html Ref: http://bluewhale.cc/2016-04-10/linear-discriminant-analysis.html Ref: http://blog.csdn.n 阅读全文
posted @ 2017-09-12 19:14 郝壹贰叁 阅读(607) 评论(0) 推荐(0) 编辑
摘要:理论学习: 独立成分分析ICA历史 Ref: Lecture 15 | Machine Learning (Stanford) - NG From: https://wenku.baidu.com/view/ad0973b94028915f804dc2aa.html 解ICA的若干种方法: ICA 阅读全文
posted @ 2017-09-11 18:19 郝壹贰叁 阅读(437) 评论(0) 推荐(0) 编辑
摘要:2.5.4. Factor Analysis PPCA的基本性质以及人肉推导: 以上假设z是标准正态分布的情况。以下是对z的分布的扩展,为general normal distribution。 From: http://cs.brown.edu/courses/cs195-5/spring2012 阅读全文
posted @ 2017-09-07 10:33 郝壹贰叁 阅读(413) 评论(0) 推荐(0) 编辑
摘要:2.5. Decomposing signals in components (matrix factorization problems) 2.5.1. Principal component analysis (PCA) 4.4. Unsupervised dimensionality redu 阅读全文
posted @ 2017-09-07 07:45 郝壹贰叁 阅读(578) 评论(0) 推荐(0) 编辑
摘要:Ref: http://sklearn.lzjqsdd.com/modules/svm.html Ref: CS229 Lecture notes - Support Vector Machines Ref: Lecture 6 | Machine Learning (Stanford) youtu 阅读全文
posted @ 2017-08-12 18:38 郝壹贰叁 阅读(589) 评论(0) 推荐(0) 编辑
摘要:SVM算法 既可用于回归问题,比如SVR(Support Vector Regression,支持向量回归) 也可以用于分类问题,比如SVC(Support Vector Classification,支持向量分类) 这里简单介绍下SVR:https://scikit-learn.org/stabl 阅读全文
posted @ 2017-07-17 18:51 郝壹贰叁 阅读(690) 评论(0) 推荐(1) 编辑
摘要:Ref: http://scikit-learn.org/stable/modules/naive_bayes.html 1.9.1. Gaussian Naive Bayes 原理可参考:统计学习笔记(4)——朴素贝叶斯法 - 条件概率的应用 估计示范:X={有房=否,婚姻状况=已婚,年收入=12 阅读全文
posted @ 2017-07-12 17:39 郝壹贰叁 阅读(333) 评论(0) 推荐(0) 编辑
摘要:From: Out-of-core classification of text documents Code: """ Out-of-core classification of text documents This is an example showing how scikit-learn 阅读全文
posted @ 2017-07-12 14:44 郝壹贰叁 阅读(358) 评论(0) 推荐(0) 编辑
摘要:数据集分割 一、Online learning for 手写识别 From: Comparing various online solvers An example showing how different online solvers perform on the hand-written di 阅读全文
posted @ 2017-07-10 16:33 郝壹贰叁 阅读(543) 评论(0) 推荐(0) 编辑
摘要:NB: 因为softmax,NN看上去是分类,其实是拟合(回归),拟合最大似然。 多分类参见:[Scikit-learn] 1.1 Generalized Linear Models - Logistic regression & Softmax 感知机采用的是形式最简单的梯度 Perceptron 阅读全文
posted @ 2017-07-10 13:04 郝壹贰叁 阅读(569) 评论(0) 推荐(0) 编辑
摘要:梯度下降 一、亲手实现“梯度下降” 以下内容其实就是《手动实现简单的梯度下降》。 神经网络的实践笔记,主要包括: Logistic分类函数 反向传播相关内容 Link: http://peterroelants.github.io/posts/neural_network_implementatio 阅读全文
posted @ 2017-07-08 15:39 郝壹贰叁 阅读(368) 评论(0) 推荐(0) 编辑
摘要:二分类:Logistic regression 多分类:Softmax分类函数 对于损失函数,我们求其最小值, 对于似然函数,我们求其最大值。 Logistic是loss function,即: 在逻辑回归中,选择了 “对数似然损失函数”,L(Y,P(Y|X)) = -logP(Y|X)。 对似然函 阅读全文
posted @ 2017-07-08 15:03 郝壹贰叁 阅读(1004) 评论(0) 推荐(0) 编辑
摘要:本章涉及到的若干知识点(红字);本章节是作为通往Tensorflow的前奏! 链接:https://www.zhihu.com/question/27823925/answer/38460833 首先,神经网络的最后一层,也就是输出层,是一个 Logistic Regression (或者 Soft 阅读全文
posted @ 2017-06-30 19:26 郝壹贰叁 阅读(596) 评论(0) 推荐(0) 编辑
摘要:Ref: http://blog.csdn.net/daunxx/article/details/51596877 Ref: https://www.youtube.com/watch?v=ipb2MhSRGdw Ref: nullege.com/codes 大纲 OUTLINE 初步认识 一、La 阅读全文
posted @ 2017-06-28 18:19 郝壹贰叁 阅读(817) 评论(0) 推荐(1) 编辑
摘要:Introduction 一、Scikit-learning 广义线性模型 From: http://sklearn.lzjqsdd.com/modules/linear_model.html#ordinary-least-squares # 需要明白以下全部内容,花些时间。 只涉及上述常见的、个人 阅读全文
posted @ 2017-06-26 21:28 郝壹贰叁 阅读(506) 评论(0) 推荐(0) 编辑
摘要:为何有必要进修统计机器学习? 因为你没有那么多的数据 因为未知的东西最终还是需理论所解释 基于规则?基于概率? 图灵奖得主、贝叶斯之父 Judea Pearl 谈深度学习局限,想造自由意志机器人 从科学角度来说,基于规则的系统就是错误的。它们为专家建模,而不是对疾病本身建模。 问题在于,程序员创建的 阅读全文
posted @ 2017-05-30 07:20 郝壹贰叁 阅读(1142) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示