上一页 1 ··· 13 14 15 16 17 18 19 20 21 ··· 46 下一页
摘要: lrCostFunction.m oneVsAll.m predictOneVsAll.m predict.m 阅读全文
posted @ 2018-02-09 12:11 starry_sky 阅读(1432) 评论(0) 推荐(0) 编辑
摘要: Neural Networks: Representation 选AD B加起来不一定非要等于1 C要加一层隐藏层才行 逻辑运算,选A 考察神经网络的运行过程,选A 计算题,选A 计算题,选A 阅读全文
posted @ 2018-02-09 12:08 starry_sky 阅读(861) 评论(0) 推荐(0) 编辑
摘要: Neural Networks: Representation Non-linear hypotheses 我们之前学到的,无论是线性回归还是逻辑回归都有一个缺点,当特征太多时,计算负荷会非常的大。 如下: 只有x1和x2,但运用多次项进行预测时,我们的方程可以很好的预测。使用非线性的多项式能够帮助 阅读全文
posted @ 2018-02-09 11:42 starry_sky 阅读(1035) 评论(0) 推荐(0) 编辑
摘要: sigmoid.m costFunction.m predict.m costFunctionReg.m 阅读全文
posted @ 2018-02-08 23:38 starry_sky 阅读(1285) 评论(3) 推荐(0) 编辑
摘要: Week3 || Logistic Regression 概率计算,选AD C中J(θ)将减小,D中只能在0至1之间,故选AB 选AC,A中z应为x,应该是打印错误,B和D中是线性回归的 选AC B对于每一个类有要做一个分类器,D由于使用代价函数为线性回归代价函数,会有很多局部最优值 计算题 X1 阅读全文
posted @ 2018-02-08 23:35 starry_sky 阅读(1217) 评论(0) 推荐(1) 编辑
摘要: Classification 在分类问题中,你要预测的变量y的离散的值,我们将学习一种叫做逻辑回归的算法。 在分类问题中,我们尝试预测的是结果是否属于某一个类(例如正确或错误)。 分类问题的例子有:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;之前我们也谈到了肿瘤分类问题的例子,区别一 阅读全文
posted @ 2018-02-08 21:54 starry_sky 阅读(1329) 评论(0) 推荐(0) 编辑
摘要: warmUpExercise.m plotData.m gradientDescent.m computeCost.m gradientDescentMulti.m computeCostMulti.m featureNormalize.m normalEqn.m 阅读全文
posted @ 2018-02-08 20:50 starry_sky 阅读(2091) 评论(0) 推荐(0) 编辑
摘要: Week2 || Introduction 求x2(4)第4个数据的第2个特征的归一化。 平均值:(7921+5184+8836+4761) / 4 = 6675.5 MAX-MIN = 8836 - 4761 = 4075 所以答案为(4761 - 6675.5) / 4075 = -0.47 本 阅读全文
posted @ 2018-02-08 20:43 starry_sky 阅读(1504) 评论(1) 推荐(0) 编辑
摘要: Multiple Features 之前学的是“单变量线性回归”,明显一个问题不可能只有一个特征,现在增加特征数量变成“多变量线性回归”。 下面对一些符号进行定义: n:特征的数量 m:训练数据的数量 x(i):训练集中的第i的数据 x(i)j:第i个数据的第j个特征 y(i):第i个数据的标签(输 阅读全文
posted @ 2018-02-08 20:03 starry_sky 阅读(1551) 评论(0) 推荐(0) 编辑
摘要: Week1 || Introduction 考察机器学习的定义,由Tom Mitchell 提出的。答案是A 考察监督学习的类型,预测明天的温度,由于是一个连续的值,故选A 考察监督学习的类型,预测是否赢得专利侵权诉讼,答案就两个“YES”和“NO”,是一个离散值,故选B 哪些选项适合使用监督学习。 阅读全文
posted @ 2018-02-08 18:25 starry_sky 阅读(3525) 评论(1) 推荐(0) 编辑
上一页 1 ··· 13 14 15 16 17 18 19 20 21 ··· 46 下一页