摘要: //读视频#include "stdafx.h"#include <opencv2/opencv.hpp>#include <opencv2\highgui\highgui.hpp>using namespace std;using namespace cv;int _tmain(int argc, 阅读全文
posted @ 2016-08-30 15:47 wl_v_2016 阅读(468) 评论(0) 推荐(0) 编辑
摘要: 在机器学习的优化问题中,梯度下降法和牛顿法是常用的两种凸函数求极值的方法,他们都是为了求得目标函数的近似解。在逻辑斯蒂回归模型的参数求解中,一般用改良的梯度下降法,也可以用牛顿法。由于两种方法有些相似,我特地拿来简单地对比一下。下面的内容需要读者之前熟悉两种算法。 在机器学习的优化问题中,梯度下降法 阅读全文
posted @ 2016-08-30 08:46 wl_v_2016 阅读(495) 评论(0) 推荐(0) 编辑
摘要: 1.提出问题 模型参数估计方法,如经典的最小二乘法,可以根据某种给定的目标方程估计并优化模型参数以使其最大程度适应于所有给定的数据集。这些方法都没有包含检测并排除异常数据的方法,他们都基于平滑假设:忽略给定的数据集的大小,总有足够多的准确数据值来消除异常数据的影响。但是在很多实际情况下,平滑假设无法 阅读全文
posted @ 2016-08-30 08:46 wl_v_2016 阅读(1621) 评论(0) 推荐(0) 编辑
摘要: 看似最小二乘估计与最大似然估计在推导得到的结果很相似,但是其前提条件必须引起大家的注意!!! 对于最小二乘估计,最合理的参数估计量应该使得模型能最好地拟合样本数据,也就是估计值和观测值之差的平方和最小,其推导过程如下所示。其中Q表示误差,Yi表示估计值,Yi'表示观测值。 对于最大似然法,最合理的参 阅读全文
posted @ 2016-08-30 08:44 wl_v_2016 阅读(314) 评论(0) 推荐(0) 编辑