摘要:在行人检测中 ,比文字检测的问题更简单 原因是 大部分的 行人都比较相似 因此可以使用一个固定宽高比的 矩形来分离出你希望找到的行人 我说的宽高比 就是指的这些矩形的高度和宽度的比值在行人的问题中 不同矩形的宽高比都是一样的 但对文字检测的问题 高度和宽度的比值 对不同行的文字就是不同的了 虽然在行
阅读全文
摘要:左侧像高方差的算法,增加训练集的大小提高性能 右侧像高偏差的算法,不需要增大算法的规模,m=1000就很好了 一个很自然的方法是多加一些特征 或者在你的神经网络里加一些隐藏的单元等等 所以最后你会变成一个像左边的图 也许这相当于m等于1000 这给你更多的信心去花时间在添加基础设施来改进算法 而不是
阅读全文
摘要:编程作业 function [mu sigma2] = estimateGaussian(X) %ESTIMATEGAUSSIAN This function estimates the parameters of a %Gaussian distribution using the data in
阅读全文
摘要:你应该知道了 怎样应用一种 事实上是线性回归的一个变体 来预测不同用户对不同电影的评分值 这种具体的算法叫 ”基于内容的推荐“ 我们开发一个推荐系统 主要工作就是 想出一种学习算法 能够帮我们自动地 填上这些缺失的数值 假如说 对于这个例子 你已经知道Alice的 参数向量θ(1) 后面我们还会 详
阅读全文
摘要:多元高斯分布 x1 ,x2大概为线性关系,一些浅绿色的叉根据p(x1) *p(x2) 不太异常,但实际异常圆圈上的异常情况应该大致一致,但p(x1) *p(x2) 差异较大 那么,开发一种 改良版的异常检测算法 要用到一种 叫做多元高斯分布或者多元正态分布的东西 它能捕捉到一些之前的算法检测不出来的
阅读全文
摘要:异常检测 高斯分布 因为y=0 更常见 什么时候应该用 异常检测算法 什么时候用监督学习算法 是更有成效的 y=1 表示的是 异常的样本 关键的区别就是 在异常检测算法中 我们只有一小撮 正样本 因此学习算法不可能 从这些正样本中学出太多东西 因此取而代之的是 我们使用一组大量的 负样本 这样样本就
阅读全文
摘要:1 function idx = findClosestCentroids(X, centroids) 2 %FINDCLOSESTCENTROIDS computes the centroid memberships for every example 3 % idx = FINDCLOSESTC
阅读全文
摘要:维数约减 (dimensionality reduction) 对于降维问题来说 目前 最流行 最常用的算法是 主成分分析法 (Principal Componet Analysis,PCA) PCA:寻找一个低维的面,这里把所有的点投影到一条直线上,让原点和投影点的距离平方和最小 这些蓝色线段的长
阅读全文
摘要:聚类 非监督学习的算法 从未标记的数据中学习。所以,在非监督学习中我们要做的是给这种 没有标记的训练集合一个算法并且通过算法来为我们定义一些数据的结构。 对于这种结构的数据集,我们通过算法来发现他们 就像被分成两个聚类的点集 因此对于一种算法能够找到 被圈出来的类别,就称为聚类算法 比如说 到目前为
阅读全文
摘要:function sim = gaussianKernel(x1, x2, sigma) %RBFKERNEL returns a radial basis function kernel between x1 and x2 % sim = gaussianKernel(x1, x2) return
阅读全文
摘要:Kernels I 我将对支持向量机算法做一些改变 以构造复杂的非线性分类器我们用"kernels(核函数)"来达到此目的 如果你有大量的特征变量 如果 n 很大 而训练集的样本数 m 很小 特征变量 x 是一个 n+1 维向量你应该拟合 一个线性的判定边界 .不要拟合非常复杂的非线性函数 因为没有
阅读全文
摘要:SVM:支持向量机‘ 优化对象 log(1)=0 大间隔分类背后的数学证明 theta 和边界线垂直 theta0=0:theta让决策界过原点因为P(1),P(2)变大了,那么|theta|可以小些了,因此右边决策界较好
阅读全文
摘要:误差分析 在交叉验证集做误差分析 拥有高召回率和高查准率的算法是好的 在交叉验证集上F 机器学习系统 随堂作业
阅读全文
摘要:function [J, grad] = linearRegCostFunction(X, y, theta, lambda) %LINEARREGCOSTFUNCTION Compute cost and gradient for regularized linear %regression wi
阅读全文
摘要:用测试集来拟和参数,也不是很公平 如何选择 学习曲线
阅读全文
摘要:1 function g = sigmoidGradient(z) 2 %SIGMOIDGRADIENT returns the gradient of the sigmoid function 3 %evaluated at z 4 % g = SIGMOIDGRADIENT(z) compute
阅读全文