预测功率和电流之间的关系
摘要:通常机器学习的开发流程包括:数据收集 数据清洗与转换 模型训练 模型测试 模型部署与整合 下面,通过一个例子进行完整的机器学习开发流程的学习。 工程中需要的库: (1)首先数据的收集,获取数据: 如上,可以看到,我们获得需要获取的是Global_active_power(有功功率)、Global_r
阅读全文
posted @
2018-04-29 14:19
禅在心中
阅读(985)
推荐(0) 编辑
KNN与SVM对比&SVM与逻辑回归的对比
摘要:首先说一下两种学习方式: lazy learning 和 eager learning。 先说 eager learning, 这种学习方式是指在进行某种判断(例如,确定一个点的分类或者回归中确定某个点对应的函数值)之前,先利用训练数据进行训练得到一个目标函数,待需要时就只利用训练好的函数进行决策,
阅读全文
posted @
2018-04-08 21:45
禅在心中
阅读(6607)
推荐(1) 编辑
拉格朗日乘子法以及KKT条件
摘要:拉格朗日乘子法是一种优化算法,主要用来解决约束优化问题。他的主要思想是通过引入拉格朗日乘子来将含有n个变量和k个约束条件的约束优化问题转化为含有n+k个变量的无约束优化问题。 其中,利用拉格朗日乘子法主要解决的问题为: 等式的约束条件和不等式的条件约束。 拉格朗日乘子的背后的数学意义是其为约束方程梯
阅读全文
posted @
2018-04-06 19:40
禅在心中
阅读(3518)
推荐(0) 编辑
复合熵、条件熵和信息增益
摘要:复合熵: 条件熵: 复合熵和条件熵之间的关系: 这个公式把复合熵、条件熵以及熵联系到一起了。 条件熵仅能大于等于零而不会有负值,而且不大于原来的熵,即当知道y时,不确定度肯定是有所降低了。 在x与y独立无关时,条件熵与原熵值相等 信息增益是通过熵与条件熵的差计量的 掷一次骰子,由于六种结局(点)的出
阅读全文
posted @
2018-04-05 19:40
禅在心中
阅读(712)
推荐(0) 编辑
softmax为什么使用指数函数?(最大熵模型的理解)
摘要:解释1: 他的假设服从指数分布族 解释2: 最大熵模型,即softmax分类是最大熵模型的结果。 关于最大熵模型,网上很多介绍: 在已知部分知识的前提下,关于未知分布最合理的推断就是符合已知知识最不确定或最随机的推断,其原则是承认已知事物(知识),且对未知事物不做任何假设,没有任何偏见。 所以,最大
阅读全文
posted @
2018-04-05 17:29
禅在心中
阅读(4836)
推荐(0) 编辑
极大似然、最小二乘和梯度下降
摘要:今天学习回归算法的过程中,对于常见到的名词:极大似然、最小二乘以及梯度下降做一个总结 机器学习的基本框架大都是模型、目标和算法! 如何让模型尽可能好的拟合或者分类数据呢?那么就需要有目标函数,所以要定下模型的cost function,其中的获取损失函数的方法。 对于线性回归,可以采用他的似然函数、
阅读全文
posted @
2018-04-05 14:13
禅在心中
阅读(1284)
推荐(0) 编辑
逻辑回归
摘要:对于逻辑回归,之前看了多遍感觉自己理解了,今天突然发现自己根本没有理解,就连基本的损失函数都没有理解,回过头在看了一下,才明白其中一些表达试的含义。 譬如,上面对于某个x的预测值,sigmoid之后的值,如上所示,其实是被用来当作判断的概率值啊 如上,假设得到的 预测值为h(x),这个值判读为1的概
阅读全文
posted @
2018-04-05 13:12
禅在心中
阅读(208)
推荐(0) 编辑
为什么机器学习中常常假设数据是独立同分布的?
摘要:独立、相关的关系: 独立,两个事件的发生没有任何关系 相关,一般指线性相关,不相关指不线性相关,但或许满足非线性相关 同分布: 意味着X1和X2具有相同的分布形状和相同的分布参数,对离散随机变量具有相同的分布律,对连续随机变量具有相同的概率密度函数,有着相同的分布函数,相同的期望、方差。 独立同分布
阅读全文
posted @
2018-04-05 12:07
禅在心中
阅读(5775)
推荐(1) 编辑