摘要:
Setting up the data and the model前面我们介绍了一个神经元的模型,通过一个激励函数将高维的输入域权值的点积转化为一个单一的输出,而神经网络就是将神经元排列到每一层,形成一个网络结构,这种结构与我们之前介绍的线性模型不太一样,因此scor... 阅读全文
摘要:
Modeling one neuron下面我们开始介绍神经网络,我们先从最简单的一个神经元的情况开始,一个简单的神经元包括输入,激励函数以及输出。如下图所示:一个神经元类似一个线性分类器,如果激励函数是sigmoid 函数(σ(x)=1/(1+e−x)),那么σ(∑i... 阅读全文
摘要:
Gradient Computing前面我们介绍过分类器模型一般包含两大部分,一部分是score function,将输入的原始数据映射到每一类的score,另外一个重要组成部分是loss function,计算预测值 与实际值之间的误差,具体地,给定一个线性分类函数... 阅读全文
摘要:
Linear Classification在上一讲里,我们介绍了图像分类问题以及一个简单的分类模型K-NN模型,我们已经知道K-NN的模型有几个严重的缺陷,第一就是要保存训练集里的所有样本,这个比较消耗存储空间;第二就是要遍历所有的训练样本,这种逐一比较的方式比较耗时... 阅读全文
摘要:
Introduction这是斯坦福计算机视觉大牛李菲菲最新开设的一门关于deep learning在计算机视觉领域的相关应用的课程。这个课程重点介绍了deep learning里的一种比较流行的模型:Convolutional Neural Networks,简称CN... 阅读全文
摘要:
参考: 闲人阿发伯的博客// define head function#ifndef PS_ALGORITHM_H_INCLUDED#define PS_ALGORITHM_H_INCLUDED#include #include #include "cv.h"#inc... 阅读全文
摘要:
Optimal margin classifiers前面我们讲过,对如下的原始的优化问题我们希望找到一个优化的边界分类器。 minγ,w,bs.t.12∥w∥2y(i)(wTx(i)+b)⩾1,i=1,...m 我们可以将约束条件改写成如下: gi(w)=−y(i)(... 阅读全文
摘要:
优化的边界分类器上一讲里我们介绍了函数边界和几何边界的概念,给定一组训练样本,如果能够找到一条决策边界,能够使得几何边界尽可能地大,这将使分类器可以很可靠地预测训练样本,特别地,这可以让分类器用一个“间隔”将正负样本分开。现在,我们假设给定的一组训练样本是线性可分的,... 阅读全文
摘要:
引言这一讲及接下来的几讲,我们要介绍supervised learning 算法中最好的算法之一:Support Vector Machines (SVM,支持向量机)。为了介绍支持向量机,我们先讨论“边界”的概念,接下来,我们将讨论优化的边界分类器,并将引出拉格朗日... 阅读全文
摘要:
Naive Bayes在GDA模型中,特征向量x是连续的实数向量,在这一讲里,我们将要讨论另外一种算法用来处理特征向量x是离散值的情况。我们先考虑一个例子,用机器学习的方法建立一个垃圾邮件过滤器,我们希望用一种算法来甄别邮件的信息以确定该邮件是不是垃圾邮件,通过学习这... 阅读全文