摘要: sigmoid.m costFunction.m predict.m costFunctionReg.m 阅读全文
posted @ 2018-02-08 23:38 starry_sky 阅读(1285) 评论(3) 推荐(0) 编辑
摘要: Week3 || Logistic Regression 概率计算,选AD C中J(θ)将减小,D中只能在0至1之间,故选AB 选AC,A中z应为x,应该是打印错误,B和D中是线性回归的 选AC B对于每一个类有要做一个分类器,D由于使用代价函数为线性回归代价函数,会有很多局部最优值 计算题 X1 阅读全文
posted @ 2018-02-08 23:35 starry_sky 阅读(1217) 评论(0) 推荐(1) 编辑
摘要: Classification 在分类问题中,你要预测的变量y的离散的值,我们将学习一种叫做逻辑回归的算法。 在分类问题中,我们尝试预测的是结果是否属于某一个类(例如正确或错误)。 分类问题的例子有:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;之前我们也谈到了肿瘤分类问题的例子,区别一 阅读全文
posted @ 2018-02-08 21:54 starry_sky 阅读(1329) 评论(0) 推荐(0) 编辑
摘要: warmUpExercise.m plotData.m gradientDescent.m computeCost.m gradientDescentMulti.m computeCostMulti.m featureNormalize.m normalEqn.m 阅读全文
posted @ 2018-02-08 20:50 starry_sky 阅读(2091) 评论(0) 推荐(0) 编辑
摘要: Week2 || Introduction 求x2(4)第4个数据的第2个特征的归一化。 平均值:(7921+5184+8836+4761) / 4 = 6675.5 MAX-MIN = 8836 - 4761 = 4075 所以答案为(4761 - 6675.5) / 4075 = -0.47 本 阅读全文
posted @ 2018-02-08 20:43 starry_sky 阅读(1504) 评论(1) 推荐(0) 编辑
摘要: Multiple Features 之前学的是“单变量线性回归”,明显一个问题不可能只有一个特征,现在增加特征数量变成“多变量线性回归”。 下面对一些符号进行定义: n:特征的数量 m:训练数据的数量 x(i):训练集中的第i的数据 x(i)j:第i个数据的第j个特征 y(i):第i个数据的标签(输 阅读全文
posted @ 2018-02-08 20:03 starry_sky 阅读(1551) 评论(0) 推荐(0) 编辑
摘要: Week1 || Introduction 考察机器学习的定义,由Tom Mitchell 提出的。答案是A 考察监督学习的类型,预测明天的温度,由于是一个连续的值,故选A 考察监督学习的类型,预测是否赢得专利侵权诉讼,答案就两个“YES”和“NO”,是一个离散值,故选B 哪些选项适合使用监督学习。 阅读全文
posted @ 2018-02-08 18:25 starry_sky 阅读(3525) 评论(1) 推荐(0) 编辑
摘要: What is machine learning? 实际上,即使是在机器学习的专业人士中,也不存在一个被广泛认可的定义来准确定义机器学习是什么或不是什么,本课程中给出了两个定义 1:Arthur Samuel (1959). Machine Learning: Field of study that 阅读全文
posted @ 2018-02-08 16:52 starry_sky 阅读(2580) 评论(0) 推荐(0) 编辑