上一页 1 ··· 33 34 35 36 37 38 39 40 41 ··· 72 下一页

2020年1月19日

第七周 编程作业

摘要: function sim = gaussianKernel(x1, x2, sigma) %RBFKERNEL returns a radial basis function kernel between x1 and x2 % sim = gaussianKernel(x1, x2) return 阅读全文

posted @ 2020-01-19 15:51 cltt 阅读(370) 评论(0) 推荐(0)

2020年1月18日

第七周 测试

摘要: 阅读全文

posted @ 2020-01-18 19:11 cltt 阅读(95) 评论(0) 推荐(0)

第七周 第二部分

摘要: Kernels I 我将对支持向量机算法做一些改变 以构造复杂的非线性分类器我们用"kernels(核函数)"来达到此目的 如果你有大量的特征变量 如果 n 很大 而训练集的样本数 m 很小 特征变量 x 是一个 n+1 维向量你应该拟合 一个线性的判定边界 .不要拟合非常复杂的非线性函数 因为没有 阅读全文

posted @ 2020-01-18 18:01 cltt 阅读(130) 评论(0) 推荐(0)

2020年1月16日

第七周 第一部分

摘要: SVM:支持向量机‘ 优化对象 log(1)=0 大间隔分类背后的数学证明 theta 和边界线垂直 theta0=0:theta让决策界过原点因为P(1),P(2)变大了,那么|theta|可以小些了,因此右边决策界较好 阅读全文

posted @ 2020-01-16 20:36 cltt 阅读(105) 评论(0) 推荐(0)

2020年1月15日

第六周 第三部分

摘要: 误差分析 在交叉验证集做误差分析 拥有高召回率和高查准率的算法是好的 在交叉验证集上F 机器学习系统 随堂作业 阅读全文

posted @ 2020-01-15 14:26 cltt 阅读(128) 评论(0) 推荐(0)

2020年1月14日

第五次作业

摘要: function [J, grad] = linearRegCostFunction(X, y, theta, lambda) %LINEARREGCOSTFUNCTION Compute cost and gradient for regularized linear %regression wi 阅读全文

posted @ 2020-01-14 19:42 cltt 阅读(145) 评论(0) 推荐(0)

2020年1月2日

第六周 第二部分

摘要: 阅读全文

posted @ 2020-01-02 10:41 cltt 阅读(78) 评论(0) 推荐(0)

2020年1月1日

交叉验证集、正则化如何选择lambda(学习曲线:高偏差和高方差)

摘要: 用测试集来拟和参数,也不是很公平 如何选择 学习曲线 阅读全文

posted @ 2020-01-01 17:23 cltt 阅读(430) 评论(0) 推荐(0)

第四次 编程作业

摘要: 1 function g = sigmoidGradient(z) 2 %SIGMOIDGRADIENT returns the gradient of the sigmoid function 3 %evaluated at z 4 % g = SIGMOIDGRADIENT(z) compute 阅读全文

posted @ 2020-01-01 11:20 cltt 阅读(196) 评论(0) 推荐(0)

2019年12月30日

问题规约及搜索

摘要: 换言之,当一个中间节点的后继节点全为与结点,那么后继节点里至少有一个为不可解的非终叶节点,此中间节点才是不可解的 换言之,当一个中间节点的后继节点全为或结点,那么后继节点里全部为不可解的非终叶节点,此中间节点才是不可解的 与或树的搜索 博弈树搜索 关于最大最小搜索的一个例子 阅读全文

posted @ 2019-12-30 21:27 cltt 阅读(300) 评论(0) 推荐(0)

上一页 1 ··· 33 34 35 36 37 38 39 40 41 ··· 72 下一页

导航