摘要: 由于dataset是一个列表>>> dataset[[1.658985, 4.285136], [-3.453687, 3.424321], [4.838138, -1.151539], [-5.379713, -3.362104], [0.972564, 2.924... 阅读全文
posted @ 2018-01-03 16:33 crr121 阅读(2545) 评论(0) 推荐(0) 编辑
摘要: 由于dataset是一个列表>>> dataset[[1.658985, 4.285136], [-3.453687, 3.424321], [4.838138, -1.151539], [-5.379713, -3.362104], [0.972564, 2.924... 阅读全文
posted @ 2018-01-03 16:33 crr121 阅读(7870) 评论(1) 推荐(0) 编辑
摘要: 错误代码:def loadDataSet(fileName): #general function to parse tab -delimited floats dataMat = [] #assume last colu... 阅读全文
posted @ 2018-01-03 16:12 crr121 阅读(405) 评论(0) 推荐(0) 编辑
摘要: 错误代码:def loadDataSet(fileName): #general function to parse tab -delimited floats dataMat = [] #assume last colu... 阅读全文
posted @ 2018-01-03 16:12 crr121 阅读(7038) 评论(0) 推荐(0) 编辑
摘要: 1、树回归的提出背景线性回归需要拟合所有的样本(除了局部加权性回归),实际生活中大部分的问题是非线性的。所以需要将数据集进行切分成很多份容易建模的数据,然后利用线性回归的方法进行建模。但是一般一两次的切分仍然不能满足要求,所以就提出了树回归的方法2、CART(clas... 阅读全文
posted @ 2018-01-03 14:33 crr121 阅读(309) 评论(0) 推荐(0) 编辑
摘要: 参考博客:点击打开链接SVM的优缺点优点:泛化错误率低,计算开销不大,结果容易解释缺点:对参数的调节和核函数的选择敏感,原始分类器不佳修改仅适用于处理二分类问题SVM的目的:找到一个超平面,也就是分类的决策边界,使得离超平面最近的点尽可能的远,而那些最近的点就是支持向... 阅读全文
posted @ 2018-01-03 14:33 crr121 阅读(180) 评论(0) 推荐(0) 编辑
摘要: 1、树回归的提出背景线性回归需要拟合所有的样本(除了局部加权性回归),实际生活中大部分的问题是非线性的。所以需要将数据集进行切分成很多份容易建模的数据,然后利用线性回归的方法进行建模。但是一般一两次的切分仍然不能满足要求,所以就提出了树回归的方法2、CART(clas... 阅读全文
posted @ 2018-01-03 14:33 crr121 阅读(172) 评论(0) 推荐(0) 编辑
摘要: 参考博客:点击打开链接SVM的优缺点优点:泛化错误率低,计算开销不大,结果容易解释缺点:对参数的调节和核函数的选择敏感,原始分类器不佳修改仅适用于处理二分类问题SVM的目的:找到一个超平面,也就是分类的决策边界,使得离超平面最近的点尽可能的远,而那些最近的点就是支持向... 阅读全文
posted @ 2018-01-03 14:33 crr121 阅读(100) 评论(0) 推荐(0) 编辑