摘要: 分三块来讲述: 1 首先://注意在C和C++里不同 在C中定义一个结构体类型要用typedef: typedef struct Student { int a; }Stu; 于是在声明变量的时候就可:Stu stu1;(如果没有typedef就必须用struct Student stu1;来声明) 阅读全文
posted @ 2016-09-08 21:10 wl_v_2016 阅读(384) 评论(0) 推荐(0) 编辑
摘要: C++声明和定义的区别 收藏 《C++Primer》第四版 2.3.5节中这么说到: ①变量定义:用于为变量分配存储空间,还可为变量指定初始值。程序中,变量有且仅有一个定义。 ②变量声明:用于向程序表明变量的类型和名字。 ③定义也是声明:当定义变量时我们声明了它的类型和名字。 ④extern关键字: 阅读全文
posted @ 2016-09-08 21:07 wl_v_2016 阅读(155) 评论(0) 推荐(0) 编辑
摘要: .h文件中除了包含函数的声明以外,如果还有子函数的声明以及全局变量的定义,前面必须加上关键字“static”,因为当其他的函数调用该子函数或者变量的时候,是属于外部变量。 阅读全文
posted @ 2016-09-06 16:29 wl_v_2016 阅读(220) 评论(0) 推荐(0) 编辑
摘要: //读视频#include "stdafx.h"#include <opencv2/opencv.hpp>#include <opencv2\highgui\highgui.hpp>using namespace std;using namespace cv;int _tmain(int argc, 阅读全文
posted @ 2016-08-30 15:47 wl_v_2016 阅读(471) 评论(0) 推荐(0) 编辑
摘要: 1.提出问题 模型参数估计方法,如经典的最小二乘法,可以根据某种给定的目标方程估计并优化模型参数以使其最大程度适应于所有给定的数据集。这些方法都没有包含检测并排除异常数据的方法,他们都基于平滑假设:忽略给定的数据集的大小,总有足够多的准确数据值来消除异常数据的影响。但是在很多实际情况下,平滑假设无法 阅读全文
posted @ 2016-08-30 08:46 wl_v_2016 阅读(1645) 评论(0) 推荐(0) 编辑
摘要: 在机器学习的优化问题中,梯度下降法和牛顿法是常用的两种凸函数求极值的方法,他们都是为了求得目标函数的近似解。在逻辑斯蒂回归模型的参数求解中,一般用改良的梯度下降法,也可以用牛顿法。由于两种方法有些相似,我特地拿来简单地对比一下。下面的内容需要读者之前熟悉两种算法。 在机器学习的优化问题中,梯度下降法 阅读全文
posted @ 2016-08-30 08:46 wl_v_2016 阅读(505) 评论(0) 推荐(0) 编辑
摘要: 看似最小二乘估计与最大似然估计在推导得到的结果很相似,但是其前提条件必须引起大家的注意!!! 对于最小二乘估计,最合理的参数估计量应该使得模型能最好地拟合样本数据,也就是估计值和观测值之差的平方和最小,其推导过程如下所示。其中Q表示误差,Yi表示估计值,Yi'表示观测值。 对于最大似然法,最合理的参 阅读全文
posted @ 2016-08-30 08:44 wl_v_2016 阅读(318) 评论(0) 推荐(0) 编辑