上一页 1 ··· 33 34 35 36 37 38 39 40 41 ··· 72 下一页

2020年1月20日

第八周 第一部分

摘要: 聚类 非监督学习的算法 从未标记的数据中学习。所以,在非监督学习中我们要做的是给这种 没有标记的训练集合一个算法并且通过算法来为我们定义一些数据的结构。 对于这种结构的数据集,我们通过算法来发现他们 就像被分成两个聚类的点集 因此对于一种算法能够找到 被圈出来的类别,就称为聚类算法 比如说 到目前为 阅读全文

posted @ 2020-01-20 13:54 cltt 阅读(107) 评论(0) 推荐(0) 编辑

2020年1月19日

第七周 编程作业

摘要: function sim = gaussianKernel(x1, x2, sigma) %RBFKERNEL returns a radial basis function kernel between x1 and x2 % sim = gaussianKernel(x1, x2) return 阅读全文

posted @ 2020-01-19 15:51 cltt 阅读(340) 评论(0) 推荐(0) 编辑

2020年1月18日

第七周 测试

摘要: 阅读全文

posted @ 2020-01-18 19:11 cltt 阅读(87) 评论(0) 推荐(0) 编辑

第七周 第二部分

摘要: Kernels I 我将对支持向量机算法做一些改变 以构造复杂的非线性分类器我们用"kernels(核函数)"来达到此目的 如果你有大量的特征变量 如果 n 很大 而训练集的样本数 m 很小 特征变量 x 是一个 n+1 维向量你应该拟合 一个线性的判定边界 .不要拟合非常复杂的非线性函数 因为没有 阅读全文

posted @ 2020-01-18 18:01 cltt 阅读(118) 评论(0) 推荐(0) 编辑

2020年1月16日

第七周 第一部分

摘要: SVM:支持向量机‘ 优化对象 log(1)=0 大间隔分类背后的数学证明 theta 和边界线垂直 theta0=0:theta让决策界过原点因为P(1),P(2)变大了,那么|theta|可以小些了,因此右边决策界较好 阅读全文

posted @ 2020-01-16 20:36 cltt 阅读(95) 评论(0) 推荐(0) 编辑

2020年1月15日

第六周 第三部分

摘要: 误差分析 在交叉验证集做误差分析 拥有高召回率和高查准率的算法是好的 在交叉验证集上F 机器学习系统 随堂作业 阅读全文

posted @ 2020-01-15 14:26 cltt 阅读(114) 评论(0) 推荐(0) 编辑

2020年1月14日

第五次作业

摘要: function [J, grad] = linearRegCostFunction(X, y, theta, lambda) %LINEARREGCOSTFUNCTION Compute cost and gradient for regularized linear %regression wi 阅读全文

posted @ 2020-01-14 19:42 cltt 阅读(128) 评论(0) 推荐(0) 编辑

2020年1月2日

第六周 第二部分

摘要: 阅读全文

posted @ 2020-01-02 10:41 cltt 阅读(68) 评论(0) 推荐(0) 编辑

2020年1月1日

交叉验证集、正则化如何选择lambda(学习曲线:高偏差和高方差)

摘要: 用测试集来拟和参数,也不是很公平 如何选择 学习曲线 阅读全文

posted @ 2020-01-01 17:23 cltt 阅读(400) 评论(0) 推荐(0) 编辑

第四次 编程作业

摘要: 1 function g = sigmoidGradient(z) 2 %SIGMOIDGRADIENT returns the gradient of the sigmoid function 3 %evaluated at z 4 % g = SIGMOIDGRADIENT(z) compute 阅读全文

posted @ 2020-01-01 11:20 cltt 阅读(175) 评论(0) 推荐(0) 编辑

上一页 1 ··· 33 34 35 36 37 38 39 40 41 ··· 72 下一页

导航