摘要: pca.m projectData.m recoverData.m computeCentroids.m findClosestCentroids.m kMeansInitCentroids.m 阅读全文
posted @ 2018-02-09 23:03 starry_sky 阅读(743) 评论(0) 推荐(0) 编辑
摘要: Week8 || Unsupervised Learning 选择适合用“K-均值算法”的,选AB C、预测降雨量,监督问题 D、预测销售情况,监督问题 选C K-均值算法的计算过程,选CD 选择A 选择AC week8 || Principal Component Analysis 选AB 选D 阅读全文
posted @ 2018-02-09 23:01 starry_sky 阅读(503) 评论(0) 推荐(0) 编辑
摘要: Clustering Unsupervised learning introduction 什么是非监督学习呢? 在一个典型的监督学习中,我们有一个有标签的训练集,我们的目标是找到能够区分正样本和负样本的决策边界,在这里的监督学习中,我们有一系列标签,我们需要据此拟合一个假设函数。 与此不同的是,在 阅读全文
posted @ 2018-02-09 22:38 starry_sky 阅读(648) 评论(0) 推荐(0) 编辑
摘要: gaussianKernel.m dataset3Params.m processEmail.m emailFeatures.m 阅读全文
posted @ 2018-02-09 21:50 starry_sky 阅读(904) 评论(0) 推荐(0) 编辑
摘要: Support Vector Machines 欠拟合,增大C,减小δ2,所以选C 选D 安全因子,选BC 欠拟合问题,选AB C,减少训练数据更会欠拟合 D,逻辑回归是凸函数,不存在局部最小 选CD A错误 B应该训练K个 阅读全文
posted @ 2018-02-09 21:48 starry_sky 阅读(460) 评论(0) 推荐(0) 编辑
摘要: Support Vector Machines(支持向量机) Optimization objective 与逻辑回归和神经网络相比,支持向量机,或者简称 SVM。在学习复杂的非线性方程时提供了一种更为清晰,更加强大的方式。 这是逻辑回归里的,右边是S型激励函数,我们用z表示θTx 但y = 1 和 阅读全文
posted @ 2018-02-09 21:29 starry_sky 阅读(801) 评论(0) 推荐(0) 编辑
摘要: A 圆圆 链接:https://www.nowcoder.net/acm/contest/68/a 来源:牛客网 题目描述 我们定义一个圆 C 为以原点 (0, 0) 为中心的单位圆(半径为 1 的圆)。给定在 C 圆周上相异的两点 A, B。请问由 A 出发,沿着圆周走到 B,是顺时针走比较近,还 阅读全文
posted @ 2018-02-09 21:24 starry_sky 阅读(343) 评论(0) 推荐(0) 编辑
摘要: linearRegCostFunction.m learningCurve.m validationCurve.m 阅读全文
posted @ 2018-02-09 16:39 starry_sky 阅读(1199) 评论(0) 推荐(1) 编辑
摘要: Week6 || Advice for Applying Machine Learning 高方差,选B 出现过拟合问题,选BD 出现欠拟合问题,选BC 选AC 一般用 6 2 2来分,随机打乱数据是很有必要的。 选择BD A、出现高偏差,增加训练数据会增加测试误差 C、明显错的 week6 ||  阅读全文
posted @ 2018-02-09 16:37 starry_sky 阅读(771) 评论(0) 推荐(0) 编辑
摘要: Advice for applying machine learning Deciding what to try next 当我们运用训练好了的模型来预测未知数据的时候发现有较大的误差,我们下一步可以做什么? 1、获得更多的训练实例(通常是有用的,但代价大,一把使用下面的方法) 2、尝试减少特征的 阅读全文
posted @ 2018-02-09 15:32 starry_sky 阅读(823) 评论(0) 推荐(0) 编辑
摘要: sigmoidGradient.m randInitializeWeights.m nnCostFunction.m 阅读全文
posted @ 2018-02-09 14:09 starry_sky 阅读(1234) 评论(0) 推荐(0) 编辑
摘要: Neural Networks: Learning 计算误差矩阵,选C reshape函数的使用,选A ((2*1.014+2)-(2*0.994+2))/0.02 ~= 8.0008 选B 选BD 选BC 阅读全文
posted @ 2018-02-09 14:06 starry_sky 阅读(802) 评论(0) 推荐(0) 编辑
摘要: Neural'Networks:' Learning Cost function 先进行符号定义: L:神经网络层数 Sl:第l层的单元数(不包括偏置单位) K:输出单元数(SL) 逻辑回归的代价函数是: 而神经网络的代价函数有所不同,是: 这个看上去很复杂的代价函数背后的原理还是一样的,我们希望通 阅读全文
posted @ 2018-02-09 13:33 starry_sky 阅读(953) 评论(0) 推荐(0) 编辑
摘要: lrCostFunction.m oneVsAll.m predictOneVsAll.m predict.m 阅读全文
posted @ 2018-02-09 12:11 starry_sky 阅读(1432) 评论(0) 推荐(0) 编辑
摘要: Neural Networks: Representation 选AD B加起来不一定非要等于1 C要加一层隐藏层才行 逻辑运算,选A 考察神经网络的运行过程,选A 计算题,选A 计算题,选A 阅读全文
posted @ 2018-02-09 12:08 starry_sky 阅读(861) 评论(0) 推荐(0) 编辑
摘要: Neural Networks: Representation Non-linear hypotheses 我们之前学到的,无论是线性回归还是逻辑回归都有一个缺点,当特征太多时,计算负荷会非常的大。 如下: 只有x1和x2,但运用多次项进行预测时,我们的方程可以很好的预测。使用非线性的多项式能够帮助 阅读全文
posted @ 2018-02-09 11:42 starry_sky 阅读(1035) 评论(0) 推荐(0) 编辑