01 2020 档案

偏差、方差 。检测
摘要:在行人检测中 ,比文字检测的问题更简单 原因是 大部分的 行人都比较相似 因此可以使用一个固定宽高比的 矩形来分离出你希望找到的行人 我说的宽高比 就是指的这些矩形的高度和宽度的比值在行人的问题中 不同矩形的宽高比都是一样的 但对文字检测的问题 高度和宽度的比值 对不同行的文字就是不同的了 虽然在行 阅读全文

posted @ 2020-01-31 21:58 cltt 阅读(186) 评论(0) 推荐(0) 编辑

批量梯度下降和随机梯度下降(SGD)和小批量梯度下降 || 在线学习机制
摘要:左侧像高方差的算法,增加训练集的大小提高性能 右侧像高偏差的算法,不需要增大算法的规模,m=1000就很好了 一个很自然的方法是多加一些特征 或者在你的神经网络里加一些隐藏的单元等等 所以最后你会变成一个像左边的图 也许这相当于m等于1000 这给你更多的信心去花时间在添加基础设施来改进算法 而不是 阅读全文

posted @ 2020-01-30 22:35 cltt 阅读(606) 评论(0) 推荐(0) 编辑

第九周 测试二 + 编程作业
摘要:编程作业 function [mu sigma2] = estimateGaussian(X) %ESTIMATEGAUSSIAN This function estimates the parameters of a %Gaussian distribution using the data in 阅读全文

posted @ 2020-01-29 16:24 cltt 阅读(191) 评论(0) 推荐(0) 编辑

第九周 第三部分
摘要:你应该知道了 怎样应用一种 事实上是线性回归的一个变体 来预测不同用户对不同电影的评分值 这种具体的算法叫 ”基于内容的推荐“ 我们开发一个推荐系统 主要工作就是 想出一种学习算法 能够帮我们自动地 填上这些缺失的数值 假如说 对于这个例子 你已经知道Alice的 参数向量θ(1) 后面我们还会 详 阅读全文

posted @ 2020-01-28 18:05 cltt 阅读(125) 评论(0) 推荐(0) 编辑

第九周 测试
摘要: 阅读全文

posted @ 2020-01-27 13:51 cltt 阅读(99) 评论(0) 推荐(0) 编辑

第九周 第二部分
摘要:多元高斯分布 x1 ,x2大概为线性关系,一些浅绿色的叉根据p(x1) *p(x2) 不太异常,但实际异常圆圈上的异常情况应该大致一致,但p(x1) *p(x2) 差异较大 那么,开发一种 改良版的异常检测算法 要用到一种 叫做多元高斯分布或者多元正态分布的东西 它能捕捉到一些之前的算法检测不出来的 阅读全文

posted @ 2020-01-26 19:35 cltt 阅读(154) 评论(0) 推荐(0) 编辑

第九周 第一部分
摘要:异常检测 高斯分布 因为y=0 更常见 什么时候应该用 异常检测算法 什么时候用监督学习算法 是更有成效的 y=1 表示的是 异常的样本 关键的区别就是 在异常检测算法中 我们只有一小撮 正样本 因此学习算法不可能 从这些正样本中学出太多东西 因此取而代之的是 我们使用一组大量的 负样本 这样样本就 阅读全文

posted @ 2020-01-24 13:05 cltt 阅读(143) 评论(0) 推荐(0) 编辑

第八周 编程作业
摘要:1 function idx = findClosestCentroids(X, centroids) 2 %FINDCLOSESTCENTROIDS computes the centroid memberships for every example 3 % idx = FINDCLOSESTC 阅读全文

posted @ 2020-01-23 17:15 cltt 阅读(180) 评论(0) 推荐(0) 编辑

PCA
摘要:一些应用 PCA 的建议 第八周 编程作业 阅读全文

posted @ 2020-01-23 12:37 cltt 阅读(111) 评论(0) 推荐(0) 编辑

数据降维+PCA(主成分 分析法)
摘要:维数约减 (dimensionality reduction) 对于降维问题来说 目前 最流行 最常用的算法是 主成分分析法 (Principal Componet Analysis,PCA) PCA:寻找一个低维的面,这里把所有的点投影到一条直线上,让原点和投影点的距离平方和最小 这些蓝色线段的长 阅读全文

posted @ 2020-01-21 12:28 cltt 阅读(324) 评论(0) 推荐(0) 编辑

第八周 随堂测试
摘要: 阅读全文

posted @ 2020-01-20 22:28 cltt 阅读(121) 评论(0) 推荐(0) 编辑

第八周 第一部分
摘要:聚类 非监督学习的算法 从未标记的数据中学习。所以,在非监督学习中我们要做的是给这种 没有标记的训练集合一个算法并且通过算法来为我们定义一些数据的结构。 对于这种结构的数据集,我们通过算法来发现他们 就像被分成两个聚类的点集 因此对于一种算法能够找到 被圈出来的类别,就称为聚类算法 比如说 到目前为 阅读全文

posted @ 2020-01-20 13:54 cltt 阅读(109) 评论(0) 推荐(0) 编辑

第七周 编程作业
摘要:function sim = gaussianKernel(x1, x2, sigma) %RBFKERNEL returns a radial basis function kernel between x1 and x2 % sim = gaussianKernel(x1, x2) return 阅读全文

posted @ 2020-01-19 15:51 cltt 阅读(349) 评论(0) 推荐(0) 编辑

第七周 测试
摘要: 阅读全文

posted @ 2020-01-18 19:11 cltt 阅读(87) 评论(0) 推荐(0) 编辑

第七周 第二部分
摘要:Kernels I 我将对支持向量机算法做一些改变 以构造复杂的非线性分类器我们用"kernels(核函数)"来达到此目的 如果你有大量的特征变量 如果 n 很大 而训练集的样本数 m 很小 特征变量 x 是一个 n+1 维向量你应该拟合 一个线性的判定边界 .不要拟合非常复杂的非线性函数 因为没有 阅读全文

posted @ 2020-01-18 18:01 cltt 阅读(120) 评论(0) 推荐(0) 编辑

第七周 第一部分
摘要:SVM:支持向量机‘ 优化对象 log(1)=0 大间隔分类背后的数学证明 theta 和边界线垂直 theta0=0:theta让决策界过原点因为P(1),P(2)变大了,那么|theta|可以小些了,因此右边决策界较好 阅读全文

posted @ 2020-01-16 20:36 cltt 阅读(97) 评论(0) 推荐(0) 编辑

第六周 第三部分
摘要:误差分析 在交叉验证集做误差分析 拥有高召回率和高查准率的算法是好的 在交叉验证集上F 机器学习系统 随堂作业 阅读全文

posted @ 2020-01-15 14:26 cltt 阅读(115) 评论(0) 推荐(0) 编辑

第五次作业
摘要:function [J, grad] = linearRegCostFunction(X, y, theta, lambda) %LINEARREGCOSTFUNCTION Compute cost and gradient for regularized linear %regression wi 阅读全文

posted @ 2020-01-14 19:42 cltt 阅读(130) 评论(0) 推荐(0) 编辑

第六周 第二部分
摘要: 阅读全文

posted @ 2020-01-02 10:41 cltt 阅读(71) 评论(0) 推荐(0) 编辑

交叉验证集、正则化如何选择lambda(学习曲线:高偏差和高方差)
摘要:用测试集来拟和参数,也不是很公平 如何选择 学习曲线 阅读全文

posted @ 2020-01-01 17:23 cltt 阅读(409) 评论(0) 推荐(0) 编辑

第四次 编程作业
摘要:1 function g = sigmoidGradient(z) 2 %SIGMOIDGRADIENT returns the gradient of the sigmoid function 3 %evaluated at z 4 % g = SIGMOIDGRADIENT(z) compute 阅读全文

posted @ 2020-01-01 11:20 cltt 阅读(180) 评论(0) 推荐(0) 编辑

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

点击右上角即可分享
微信分享提示