上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 19 下一页
摘要: 如果我们有过从我们的假设函数,我们可以降低权重,再函数中的增加一些项来增加他们的成本。 比如我们要使下面的函数二次项的权重增大: 我们要减小θ3x3和θ4x4的影响。实际上,如果不排除这些特性或改变我们假设的形式,我们可以修改我们的成本函数: 我们已经对最后的θ3和θ4增加了额外的成本。现在,为了使 阅读全文
posted @ 2017-08-06 13:07 郑哲 阅读(1718) 评论(0) 推荐(2) 编辑
摘要: 数据结构 栈,队列,链表 •哈希表,哈希数组 •堆,优先队列 双端队列 可并堆 左偏堆 •二叉查找树 Treap 伸展树 •并查集 集合计数问题 二分图的识别 •平衡二叉树 •二叉排序树 •线段树 一维线段树 二维线段树 •树状数组 一维树状数组 N维树状数组 •字典树 •后缀数组,后缀树 •块状链 阅读全文
posted @ 2017-08-04 09:48 郑哲 阅读(262) 评论(0) 推荐(0) 编辑
摘要: 考虑问题的预测Y从X∈R.下面左边的图显示拟合Y = θ0 +θ1X数据集的结果。我们看到数据并不是真的在直线上,所以拟合度不是很好。 相反,如果我们增加一个额外的元素x2,并且去拟合y=θ0+θ1x+θ2x2。然后我们得到一个稍微好一些的数据(参见下图)。天真的是,似乎我们添加的元素越多越好。 然 阅读全文
posted @ 2017-07-23 20:14 郑哲 阅读(487) 评论(0) 推荐(0) 编辑
摘要: 现在,我们将讨论数据分类时,我们有两个以上的类别。而Y = {0,1}我们将扩大我们的定义,Y = { 0,1…}。 因为Y = { 0,1…},我们把我们的问题转化为n + 1(+ 1因为索引从0开始)二分类问题;在每一个,我们预测,“Y”是我们的一个类成员概率。 我们基本上是选择一类,然后将所有 阅读全文
posted @ 2017-07-23 19:24 郑哲 阅读(1213) 评论(0) 推荐(0) 编辑
摘要: “共轭梯度”、“BFGS”、和“L-BFGS”更成熟,更快的方法来优化θ可以用来代替梯度下降。我们建议您不要自己编写这些更复杂的算法(除非您是数字计算方面的专家),而是使用库,因为它们已经经过测试并高度优化。octave提供它们。 我们首先需要一个函数来评价下面的两个函数为了输入θ: 我们可以编写一 阅读全文
posted @ 2017-07-23 19:20 郑哲 阅读(115) 评论(0) 推荐(0) 编辑
摘要: 我们可以将成本函数的两个条件情形压缩为一个情形: 注意到当y=1,那么=0也就是说没有效果。 当y=0,那么=0。 我们可以完全写出我们的全部成本函数如下: 矢量化实现: 梯度下降 请记住,梯度下降的一般形式是: 利用微积分可以求出导数的部分: 注意,这个算法与我们在线性回归中使用的算法是一样的。我 阅读全文
posted @ 2017-07-23 19:13 郑哲 阅读(315) 评论(0) 推荐(0) 编辑
摘要: 对于线性回归,我们不能使用相同的成本函数,因为logistic函数会导致输出波动,导致许多局部最优解。换句话说,它不是一个凸函数。 相反,我们的逻辑回归的成本函数看起来像: 当y = 1,我们得到如下图J(θ)与H(θ) 当y = 0,我们得到如下图J(θ)与H(θ) 如果我们的正确答案y是0,那么 阅读全文
posted @ 2017-07-23 17:02 郑哲 阅读(214) 评论(0) 推荐(0) 编辑
摘要: 为了得到离散的0或1分类,我们可以将假设函数的输出翻译如下: 我们的逻辑函数g的行为方式是,当它的输入大于或等于零时,它的输出大于或等于0.5: 记得. 所以如果我们输入g是θTX,那就意味着: 从这些陈述我们可以说: 决策边界是分隔y=0和y=1的区域的直线。它是由我们的假设函数创建的。例子: 在 阅读全文
posted @ 2017-07-23 16:53 郑哲 阅读(581) 评论(0) 推荐(0) 编辑
摘要: 我们可以讨论分类问题,忽略y是离散值这一事实,并使用我们的旧线性回归算法来预测y给定x。然而,很容易构造例子,这种方法表现很差。直观地说,也没有道理当h(θ)(x)取值大于1或小于0时,我们知道,Y∈{ 0, 1 }。为了解决这个问题,让我们改变我们的假设H(θ)(x)满足0≤h(θ)(x)≤1。这 阅读全文
posted @ 2017-07-23 16:45 郑哲 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 为了尝试分类,一种方法是使用线性回归,并将所有大于0.5的预测映射为1,所有小于0.5作为0。然而,这种方法不能很好地工作,因为分类实际上不是线性函数。 分类问题和回归问题一样,除了我们现在要预测的值y只取一小部分离散值。现在,我们将重点讨论二进制分类问题,其中Y只能接受两个值,0和1。(我们在这里 阅读全文
posted @ 2017-07-23 16:36 郑哲 阅读(109) 评论(0) 推荐(0) 编辑
上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 19 下一页