上一页 1 2 3 4 5 6 7 8 ··· 16 下一页
摘要: 分析目的 分析空气中主要污染物浓度与空气指数之间的关系 分析数据 天气污染物浓度的数据集,该数据集源自天气后报网站上爬取的数据,为北京2013年10月28日到2016年1月31日的空气污染物浓度的数据。包括空气质量等级、AQI指数和当天排名。 import pandas as pd import n 阅读全文
posted @ 2020-04-02 21:40 从前有座山,山上 阅读(2225) 评论(0) 推荐(0) 编辑
摘要: 分析:女性身高与体重的关系 该数据集源自The World Almanac and Book of Facts(1975) 给出了年龄在30-39岁之间的15名女性的身高和体重信息 1.线性回归 # packages import pandas as pd import numpy as np im 阅读全文
posted @ 2020-04-01 22:25 从前有座山,山上 阅读(984) 评论(0) 推荐(0) 编辑
摘要: 啦啦啦 阅读全文
posted @ 2020-03-28 18:42 从前有座山,山上 阅读(223) 评论(0) 推荐(0) 编辑
摘要: 为了更直观地说明光滑参数的变化对回归函数估计效果的影响,下面给出一个数值模拟例子。 设有回归模型 #模拟数据 n = 201 x = seq(0,2,0.01) e = rnorm(n,0,0.2) y = 2*x + sin(5*pi * x)+e #局部常数拟合 #h = 0.1 plot(x, 阅读全文
posted @ 2020-03-27 20:10 从前有座山,山上 阅读(1437) 评论(0) 推荐(0) 编辑
摘要: 【转发】: 我们学习的过程是从代数方程到常微分方程,再到偏微分方程。从物理上看,就是为了更精确描述实际。 你以固定的速度,跑完操场一圈,你跑步的速度等于操场长度除以你花的时间。这是代数方程。可是实际上你的速度是变化的,严格的讲时刻都可能变化,你可以用常微分方程来描述这个过程。解方程的过程是根据已有的 阅读全文
posted @ 2020-03-23 19:41 从前有座山,山上 阅读(2398) 评论(0) 推荐(0) 编辑
摘要: 一元线性回归 ①基本假设: y = w0 + w1x + ε 其中 w0,w1 为回归系数,ε 为随机误差项(noise) 给定样本集合 D = { (x1,y1),…,(xn,yn)}, 我们的目标是找到一条直线 y = w0 + w1x ,使得所有样本点尽可能落在它的附近,即求解以下问题: ②一 阅读全文
posted @ 2020-03-09 17:28 从前有座山,山上 阅读(324) 评论(0) 推荐(0) 编辑
摘要: 算法1:k近邻法 复杂度:O(n) 算法2:构造平衡kd树 算法3:搜索kd树 复杂度:O(log(n)) 当空间维数接近训练实例数时,他的效率会迅速下降,几乎接近线性扫描 python代码实现k近邻法: # # k近邻算法 步骤: 1.导入数据 2.分割数据(用于交叉验证) 3.k近邻算法 4.模 阅读全文
posted @ 2020-03-09 12:47 从前有座山,山上 阅读(208) 评论(0) 推荐(0) 编辑
摘要: 广义线性模型:因变量不服从正态分布时,但所服从的的分布属于指数族分布,这样的模型成为广义线性模型。 逻辑回归公式推导: 定义: 联结函数: 则, 记, 则有, 损失函数的推导: (利用极大似然估计) 似然函数: 两边取对数(单调性不变): 损失函数: 梯度下降法更新参数: 梯度方向时函数值增加最快的 阅读全文
posted @ 2020-03-03 20:26 从前有座山,山上 阅读(518) 评论(0) 推荐(0) 编辑
摘要: 1.什么是感知机 感知机是一种线性分类模型,属于判别模型。感知机模型的假设空间是定义在特征空间中的所有线性分类模型或线性分类器,即函数集合。 2.感知机学习策略 2.1 数据集的线性可分性 给定一个数据集,其中,,,, 如果存在某个超平面 , 能够将数据集的正实例点和负实例点完全正确地划分到超平面的 阅读全文
posted @ 2020-03-03 12:54 从前有座山,山上 阅读(1292) 评论(0) 推荐(0) 编辑
摘要: 恢复内容开始 转载:https://zhuanlan.zhihu.com/p/24913912 刚接触梯度下降这个概念的时候,是在学习机器学习算法的时候,很多训练算法用的就是梯度下降,然后资料和老师们也说朝着梯度的反方向变动,函数值下降最快,但是究其原因的时候,很多人都表达不清楚。所以我整理出自己的 阅读全文
posted @ 2020-03-02 20:04 从前有座山,山上 阅读(351) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 ··· 16 下一页