摘要: windows下安装torch=1.2.0环境 安装内容: torch:1.2.0 torchvision:0.4.0 一、安装anaconda 首先安装anaconda,最新版的anaconda默认安装python3.7,不过一般不要用最新的,因为一些包的更新可能赶不上。因此考虑装python3. 阅读全文
posted @ 2020-09-20 22:29 m1racle 阅读(7177) 评论(0) 推荐(0) 编辑
摘要: 逻辑回归 [TOC] 逻辑回归(Logistics Regression),用来解决分类问题,那回归怎么解决分类问题? 将样本特征和样本发生的概率联系起来,概率是一个数。 这是一个统计数据,Logistic Regression是最广泛使用的一种算法。 一、认识Logistic Regression 阅读全文
posted @ 2019-08-13 11:05 m1racle 阅读(663) 评论(0) 推荐(0) 编辑
摘要: 模型泛化 [TOC] 泛化即是,机器学习模型学习到的概念在它处于学习的过程中时模型没有遇见过的样本时候的表现。 ​ 类似于考试前疯狂刷题不管这些题做的都好都没用,只有在下次考试中才有效果,而下次考试的那些题可能从来没见过,只有学会这些基础的东西,无论怎么变都能认出来。模型也是一样,不管训练集上表现如 阅读全文
posted @ 2019-08-11 23:49 m1racle 阅读(3888) 评论(0) 推荐(0) 编辑
摘要: 多项式回归 [TOC] 直线回归研究的是一个依变量与一个自变量之间的回归问题。 研究一个因变量与一个或多个自变量间多项式的回归分析方法,称为多项式回归(Polynomial Regression)多项式回归模型是线性回归模型的一种。 多项式回归问题可以通过变量转换化为多元线性回归问题来解决。 一、多 阅读全文
posted @ 2019-08-10 23:57 m1racle 阅读(2321) 评论(0) 推荐(0) 编辑
摘要: 主成分分析法 [TOC] 主成分分析法:(Principle Component Analysis, PCA),是一个非监督机器学习算法,主要用于数据降维,通过降维,可以发现便于人们理解的特征,其他应用:可视化和去噪等。 一、主成分分析的理解 ​ 先假设用数据的两个特征画出散点图,如果我们只保留特征 阅读全文
posted @ 2019-08-10 13:11 m1racle 阅读(3217) 评论(0) 推荐(0) 编辑
摘要: 梯度下降法 [TOC] 梯度下降法,是一种基于搜索的最优化方法,最用是最小化一个损失函数。 一、什么是梯度下降? ​ 机器学习算法都需要最大化或最小化一个函数,这个函数被称为"目标函数",其中我们一般把最小化的一类函数,称为"损失函数"。它能根据预测结果,衡量出模型预测能力的好坏。在求损失函数最小化 阅读全文
posted @ 2019-08-08 18:20 m1racle 阅读(1006) 评论(0) 推荐(0) 编辑
摘要: 多元线性回归 [TOC] ​ 其实就是把简单线性回归进行多元的推广。其中的输入x由单一特征变为含有n个特征的向量。每个特征向量乘以一个系数,再加上最后的偏置θ。 ​ 求解思路也是跟简单线性回归一致。 一、多元线性回归的数学推导 这个式子就成为多元线性回归的正规方程解(Normal Equation) 阅读全文
posted @ 2019-08-05 17:26 m1racle 阅读(2019) 评论(0) 推荐(0) 编辑
摘要: 数据归一化 [TOC] 将所有的数据映射到同一尺度。 ​ 首先,为什么需要数据归一化?举个简答的例子。样本间的距离时间所主导,这样在样本1以[1, 200]输入到模型中去的时候,由于200可能会直接忽略到1的存在,因此我们需要将数据进行归一化。比如将天数转换为占比1年的比例,200/365=0.54 阅读全文
posted @ 2019-08-05 09:53 m1racle 阅读(2153) 评论(0) 推荐(0) 编辑
摘要: 简单线性回归 [TOC] 思想简单,是许多强大的非线性模型的基础,具有很好的可解释性。背后有强大的数学理论支持。 其本质: 寻找一条直线,最大程度地去拟合样本特征和样本输出标记之间的关系 ​ 之所以称为简单线性回归是因为样本特征只有一个。假设我们已经找到最佳拟合直线方程y=ax+b,对于每个样本点x 阅读全文
posted @ 2019-08-04 11:04 m1racle 阅读(828) 评论(0) 推荐(0) 编辑
摘要: 网格搜索与K近邻中更多的超参数 [TOC] 网格搜索, Grid Search:一种超参寻优手段;在所有候选的参数选择中,通过循环遍历,尝试每一种可能性,表现最好的参数就是最终的结果。(为什么叫网格搜索?以有两个参数的模型为例,参数a有3种可能,参数b有4种可能,把所有可能性列出来,可以表示成一个3 阅读全文
posted @ 2019-08-03 10:32 m1racle 阅读(545) 评论(0) 推荐(0) 编辑