摘要:
考虑问题的预测Y从X∈R.下面左边的图显示拟合Y = θ0 +θ1X数据集的结果。我们看到数据并不是真的在直线上,所以拟合度不是很好。 相反,如果我们增加一个额外的元素x2,并且去拟合y=θ0+θ1x+θ2x2。然后我们得到一个稍微好一些的数据(参见下图)。天真的是,似乎我们添加的元素越多越好。 然
阅读全文
posted @ 2017-07-23 20:14
郑哲
阅读(487)
推荐(0)
编辑
摘要:
现在,我们将讨论数据分类时,我们有两个以上的类别。而Y = {0,1}我们将扩大我们的定义,Y = { 0,1…}。 因为Y = { 0,1…},我们把我们的问题转化为n + 1(+ 1因为索引从0开始)二分类问题;在每一个,我们预测,“Y”是我们的一个类成员概率。 我们基本上是选择一类,然后将所有
阅读全文
posted @ 2017-07-23 19:24
郑哲
阅读(1213)
推荐(0)
编辑
摘要:
“共轭梯度”、“BFGS”、和“L-BFGS”更成熟,更快的方法来优化θ可以用来代替梯度下降。我们建议您不要自己编写这些更复杂的算法(除非您是数字计算方面的专家),而是使用库,因为它们已经经过测试并高度优化。octave提供它们。 我们首先需要一个函数来评价下面的两个函数为了输入θ: 我们可以编写一
阅读全文
posted @ 2017-07-23 19:20
郑哲
阅读(115)
推荐(0)
编辑
摘要:
我们可以将成本函数的两个条件情形压缩为一个情形: 注意到当y=1,那么=0也就是说没有效果。 当y=0,那么=0。 我们可以完全写出我们的全部成本函数如下: 矢量化实现: 梯度下降 请记住,梯度下降的一般形式是: 利用微积分可以求出导数的部分: 注意,这个算法与我们在线性回归中使用的算法是一样的。我
阅读全文
posted @ 2017-07-23 19:13
郑哲
阅读(315)
推荐(0)
编辑
摘要:
对于线性回归,我们不能使用相同的成本函数,因为logistic函数会导致输出波动,导致许多局部最优解。换句话说,它不是一个凸函数。 相反,我们的逻辑回归的成本函数看起来像: 当y = 1,我们得到如下图J(θ)与H(θ) 当y = 0,我们得到如下图J(θ)与H(θ) 如果我们的正确答案y是0,那么
阅读全文
posted @ 2017-07-23 17:02
郑哲
阅读(214)
推荐(0)
编辑
摘要:
为了得到离散的0或1分类,我们可以将假设函数的输出翻译如下: 我们的逻辑函数g的行为方式是,当它的输入大于或等于零时,它的输出大于或等于0.5: 记得. 所以如果我们输入g是θTX,那就意味着: 从这些陈述我们可以说: 决策边界是分隔y=0和y=1的区域的直线。它是由我们的假设函数创建的。例子: 在
阅读全文
posted @ 2017-07-23 16:53
郑哲
阅读(581)
推荐(0)
编辑
摘要:
我们可以讨论分类问题,忽略y是离散值这一事实,并使用我们的旧线性回归算法来预测y给定x。然而,很容易构造例子,这种方法表现很差。直观地说,也没有道理当h(θ)(x)取值大于1或小于0时,我们知道,Y∈{ 0, 1 }。为了解决这个问题,让我们改变我们的假设H(θ)(x)满足0≤h(θ)(x)≤1。这
阅读全文
posted @ 2017-07-23 16:45
郑哲
阅读(206)
推荐(0)
编辑
摘要:
为了尝试分类,一种方法是使用线性回归,并将所有大于0.5的预测映射为1,所有小于0.5作为0。然而,这种方法不能很好地工作,因为分类实际上不是线性函数。 分类问题和回归问题一样,除了我们现在要预测的值y只取一小部分离散值。现在,我们将重点讨论二进制分类问题,其中Y只能接受两个值,0和1。(我们在这里
阅读全文
posted @ 2017-07-23 16:36
郑哲
阅读(109)
推荐(0)
编辑