摘要: 8.1非线性假设 (1)无论线性回归还是逻辑回归当特征量太多时,计算的负荷会非常大。如50x50像素有2500特征,如果两两组合将会有25002/2个(接近300万个特征)。普通的线性回归和逻辑回归模型不能有效处理这么多特征,这时候需要用神经网络了。 8.2神经元和大脑 大脑的某一块可以经过学习,学 阅读全文
posted @ 2018-07-01 23:06 ysyouaremyall 阅读(258) 评论(0) 推荐(0) 编辑
摘要: 7.1过拟合的问题 训练集表现良好,测试集表现差。鲁棒性差。以下是两个例子(一个是回归问题,一个是分类问题) 解决办法: (1)丢弃一些不能帮助我们正确预测的特征。可以使用工选择保留哪些特征,或者使用一些模型选择的算法来帮忙(PCA); (2)正则化。保留素有的特征,但是减少参数的大小。 7.2代价 阅读全文
posted @ 2018-07-01 22:22 ysyouaremyall 阅读(193) 评论(0) 推荐(0) 编辑
摘要: 6.1分类问题 回归问题的输出可能是很大的数,而在分类问题中,比如二分类,希望输出的值是0或1,如何将回归输出的值转换成分类的输出0,1成为关键。 6.2假说表示 其中: hθ(x)的作用是,对于给定的输入变量,根据选择的参数计算输出变量=1的可能性即hθ(x)=P(y=1|x;θ)。 6.3判定边 阅读全文
posted @ 2018-07-01 22:04 ysyouaremyall 阅读(294) 评论(0) 推荐(0) 编辑
摘要: 推荐使用python,本节略。 阅读全文
posted @ 2018-07-01 20:36 ysyouaremyall 阅读(201) 评论(0) 推荐(0) 编辑
摘要: 4.1多维特征 上图中列数即为特征的个数,行数是样本数。函数假设如下: 其中x0=1。 4.2多变量梯度下降 和单变量的损失函数相同: 其中, 求导迭代如下: 4.3梯度下降法实践1-特征缩放 特征之间的尺度变化相差很大(如一个是0-1000,一个是0-5),梯度算法需要非常多次的迭代才能收敛,如下 阅读全文
posted @ 2018-07-01 20:35 ysyouaremyall 阅读(388) 评论(1) 推荐(0) 编辑