上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 20 下一页
摘要: 斯坦福大学机器学习斯坦福大学机器学习第九课“神经网络的学习(Neural Networks: Learning)”学习笔记,本次课程主要包括8部分:1) Cost function(代价函数)2) Backpropagation algorithm(BP算法 or 反向传播算法)3) Backpropagation intuition(BP算法的直观解释)4) Implementation note: Unrolling parameters(实现时的注意点:展开参数)5) Gradient checking(梯度下降算法的验证)6) Random initialization(随机初始化)7 阅读全文
posted @ 2013-05-29 19:33 94julia 阅读(1003) 评论(0) 推荐(0) 编辑
摘要: 斯坦福大学机器学习第八课“神经网络的表示(Neural Networks: Representation)”学习笔记,本次课程主要包括7部分:1)Non-linear hypotheses (非线性hypotheses)2)Neurons and the brain (神经元和大脑)3)Model representation I (模型表示一)4)Model representation II (模型表示二)5) Examples and intuitions I (例子和直观解释一)6) Examples and intuitions II (例子和直观解释二)7) Multi-class 阅读全文
posted @ 2013-05-29 19:30 94julia 阅读(818) 评论(0) 推荐(0) 编辑
摘要: 斯坦福大学机器学习第七课"正则化“学习笔记,本次课程主要包括4部分:1)The Problem of Overfitting(过拟合问题)2) Cost Function(成本函数)3) Regularized Linear Regression(线性回归的正则化)4) Regularized Logistic Regression(逻辑回归的正则化)以下是每一部分的详细解读。1)The Problem of Overfitting(过拟合问题)拟合问题举例-线性回归之房价问题:a) 欠拟合(underfit, 也称High-bias)b) 合适的拟合:c) 过拟合(overfit, 阅读全文
posted @ 2013-05-29 19:29 94julia 阅读(370) 评论(0) 推荐(0) 编辑
摘要: 斯坦福大学机器学习第六课"逻辑回归“学习笔记,本次课程主要包括7部分:1) Classification(分类)2) Hypothesis Representation3) Decision boundary(决策边界)4) Cost function(代价函数,成本函数)5) Simplified cost function and gradient descent(简化版代价函数及梯度下降算法)6) Advanced optimization(其他优化算法)7) Multi-class classification: One-vs-all(多类分类问题)以下是每一部分的详细解读。 阅读全文
posted @ 2013-05-29 19:27 94julia 阅读(410) 评论(0) 推荐(0) 编辑
摘要: 斯坦福大学机器学习公开课第五课是“Octave Tutorial”,主要是机器学习公开课的编程作业需要用Octave完成,同样需要用Octave完成作业的还有PGM(概率图模型)课程。和第三课线性代数回顾相似,这里不打算写“Coursera公开课笔记: 斯坦福大学机器学习第五课“Octave 指南(Octave Tutorial)”,而是想换一种思路,将现有的不错的Octave学习资源进行一个整理。Octave 是一个旨在提供与Matlab语法相容的开放源代码的科学计算与数值分析的工具,同时是GNU旗下的成员之一,官方网站见:GNU Octave, 官方文档比较详细, 见:GNU Octave 阅读全文
posted @ 2013-05-29 19:26 94julia 阅读(759) 评论(0) 推荐(0) 编辑
摘要: 斯坦福大学机器学习第四课"多变量线性回归“学习笔记,本次课程主要包括7部分:1) Multiple features(多维特征)2) Gradient descent for multiple variables(梯度下降在多变量线性回归中的应用)3) Gradient descent in practice I: Feature Scaling(梯度下降实践1:特征归一化)4) Gradient descent in practice II: Learning rate(梯度下降实践2:步长的选择)5) Features and polynomial regression(特征及多 阅读全文
posted @ 2013-05-29 19:17 94julia 阅读(370) 评论(0) 推荐(0) 编辑
摘要: 昨天实现了一个基于贝叶斯定理的的文本分类,贝叶斯定理假设特征属性(在文本中就是词汇)对待分类项的影响都是独立的,道理比较简单,在中文分类系统中,分类的准确性与分词系统的好坏有很大的关系,这段代码也是试验不同分词系统才顺手写的一个。 试验数据用的sogou实验室的文本分类样本,一共分为9个类别,每个类别文件夹下大约有2000篇文章。由于文本数据量确实较大,所以得想办法让每次训练的结果都能保存起来,以便于下次直接使用,我这里使用序列化的方式保存在硬盘。 训练代码如下: 1 /** 2 * 训练器 3 * 4 * <a href="http://my.oschina.net/a... 阅读全文
posted @ 2013-05-28 10:35 94julia 阅读(1217) 评论(0) 推荐(0) 编辑
摘要: 贝叶斯推断及其互联网应用作者:阮一峰一、什么是贝叶斯推断贝叶斯推断(Bayesian inference)是一种统计学方法,用来估计统计量的某种性质。它是贝叶斯定理(Bayes' theorem)的应用。英国数学家托马斯·贝叶斯(Thomas Bayes)在1763年发表的一篇论文中,首先提出了这个定理。贝叶斯推断与其他统计学推断方法截然不同。它建立在主观判断的基础上,也就是说,你可以不需要客观证据,先估计一个值,然后根据实际结果不断修正。正是因为它的主观性太强,曾经遭到许多统计学家的诟病。贝叶斯推断需要大量的计算,因此历史上很长一段时间,无法得到广泛应用。只有计算机诞生以后 阅读全文
posted @ 2013-05-28 10:22 94julia 阅读(446) 评论(0) 推荐(0) 编辑
摘要: 斯坦福大学机器学习第二课"单变量线性回归“学习笔记,本次课程主要包括7部分:1) Model representation(模型表示)2) Cost function(代价函数,成本函数)3) Cost function intuition I(直观解释1)4) Cost function intuition II(直观解释2)5) Gradient descent(梯度下降)6) Gradient descent intuition(梯度下降直观解释)7) Gradient descent for linear regression(应用于线性回归的的梯度下降算法)以下是第二课“单 阅读全文
posted @ 2013-05-22 17:54 94julia 阅读(560) 评论(0) 推荐(0) 编辑
摘要: Coursera上于4月23号启动了6门公开课,其中包括斯坦福大学于“机器学习”课程,由机器学习领域的大牛Andrew Ng教授授课:https://www.coursera.org/course/ml课程刚刚开始,对机器学习感兴趣的同学尽量注册,这样即使没有时间学习,获取相关资料特别是视频比较方便。由于工作繁忙的缘故,这批科目里我主要想系统的学习一下“机器学习”课程,所以计划在52opencourse和52nlp上同步我的机器学习课程笔记,一方面做个记录和总结,另一方面方便后来者参考。Coursera上机器学习的课程学习过程是这样的:看Andrew Ng教授的授课视频或者看看课程相关的ppt 阅读全文
posted @ 2013-05-22 16:15 94julia 阅读(506) 评论(0) 推荐(0) 编辑
上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 20 下一页