摘要: import numpy as np import pandas as pd from pandas import Series,DataFrame 一、透视表(pivotTab) 透视表就是将指定原有DataFrame的列分别作为行索引和列索引,然后对指定的列应用聚集函数(默认情况下式mean函数 阅读全文
posted @ 2019-12-22 08:54 油闷大虾啊 阅读(715) 评论(0) 推荐(0) 编辑
摘要: sklearn.model_selection.train_test_split 用法在使用python做机械学习时候,为了制作训练数据(training samples)和测试数据(testing samples),常使用sklearn里面的sklearn.model_selection.trai 阅读全文
posted @ 2019-12-22 08:42 油闷大虾啊 阅读(1070) 评论(0) 推荐(0) 编辑
摘要: product(A, B)函数,返回A、B中的元素的笛卡尔积的元组。例如 >>> import itertools>>> itertools.product([1,2,3],[100,200])<itertools.product object at 0x7f3e6dd7bc80>>>> for i 阅读全文
posted @ 2019-12-18 22:18 油闷大虾啊 阅读(261) 评论(0) 推荐(0) 编辑
摘要: 最近在学习支持向量机相关的知识,发现一篇博客介绍的非常详细,包括支持向量机原理,核函数及公式推导,因此收藏。 https://blog.csdn.net/macyang/article/details/38782399 作者:July、pluskid ;致谢:白石、JerryLead出处:结构之法算 阅读全文
posted @ 2019-12-06 10:56 油闷大虾啊 阅读(769) 评论(0) 推荐(0) 编辑
摘要: 一、如何改进一个机器学习算法假设你已经训练出一个机器学习算法,但是效果不太好,那么有以下几种改进方法:1、获得更多的训练数据2、选用更少的特征3、增加特征量4、增加高次项5、增大或减小正则化参数lambda的值很多人只是随机选择上述方法的一种,即浪费时间又没有效果。所以接下来会介绍模型的评估及机器学 阅读全文
posted @ 2019-12-01 19:02 油闷大虾啊 阅读(314) 评论(0) 推荐(0) 编辑
摘要: 反向传播算法是求代价函数小时参数θ的一种算法。 以监督学习为例,假设我们有训练样本集 ,那么神经网络算法能够提供一种复杂且非线性的假设模型 ,它具有参数 ,可以以此参数来拟合我们的数据。 为了描述神经网络,我们先从最简单的神经网络讲起,这个神经网络仅由一个“神经元”构成,以下即是这个“神经元”的图示 阅读全文
posted @ 2019-11-30 20:31 油闷大虾啊 阅读(402) 评论(0) 推荐(0) 编辑
摘要: 1.引自https://www.cnblogs.com/bnuvincent/p/9695666.html 2. 基本原理 Logistic Regression和Linear Regression的原理是相似的,按照我自己的理解,可以简单的描述为这样的过程: (1)找一个合适的预测函数(Andre 阅读全文
posted @ 2019-11-29 16:58 油闷大虾啊 阅读(306) 评论(0) 推荐(0) 编辑
摘要: 正规方程推导过程 参考:https://blog.csdn.net/chenlin41204050/article/details/78220280 多变量线性回归代价函数为: 其中: 正规方程是通过求解下面的方程来找出使得代价函数最小的参数: 设有m个训练实例,每个实例有n个特征,则训练实例集为: 阅读全文
posted @ 2019-11-29 13:23 油闷大虾啊 阅读(753) 评论(0) 推荐(0) 编辑
摘要: hθ(x)是一个假设函数,我们要求得参数向量θ使得损失函数J(θ)最低,我们可以看出,参数θ向量中包含多个变量(θ0,θ1,θ2,θ3),我们可以先选取一个参数,然后把 其他参数暂时作为常量,对J(θ)求导,得到改参数变量的下降方向,然后乘以学习系数便得到下降的步宽。利用以下公式更新参数: 也就是: 阅读全文
posted @ 2019-11-28 23:43 油闷大虾啊 阅读(557) 评论(0) 推荐(0) 编辑