2022年3月12日

AI-机器学习-自学笔记(十)装袋算法

摘要: 装袋算法是一种提高分类准确度的算法,通过给定组合投票的方式获得最优解。比如你生病了去不同医院看了几个医生,每个医生都给你开了药方,最后哪个药方的出现次数多 ,就说明这个药方越有可能是最优解,这就是装袋算法的思想。 主要的三种装袋算法模型: 装袋决策树(Bagged Decision Trees) 随 阅读全文

posted @ 2022-03-12 01:40 毕达哥拉斯 阅读(217) 评论(0) 推荐(0) 编辑

AI-机器学习-自学笔记(九)套索回归算法

摘要: 套索回归法和岭回归法类似,套索回归算法也会惩罚回归系数。在套索回归中,会惩罚回归系数的绝对值。此外,它能够减少变化程度并提高线性回归模型的精度。套索回归算法和岭回归算法有点不同,它使用的惩罚函数是绝对值,而不是平方。这导致惩罚(或等于约束估计的绝对值之和)值使一些参数估计结果等于零。使用惩罚值越大, 阅读全文

posted @ 2022-03-12 01:37 毕达哥拉斯 阅读(364) 评论(0) 推荐(0) 编辑

2022年3月10日

AI-机器学习-自学笔记(八)岭回归算法

摘要: 岭回归算法是一种专门用于共线性数据分析的有偏估计回归方法, 实际上是一种改 良的最小 乘估计法,通过放弃最小 乘法的无偏性,以损失部分信息、降低精度为代 价,获得回归系数更符合实际、更可靠的回归方法,对病态数据的拟合要强于最小二乘 。 在 scikit-leam 中实现岭回归算法的是 Ridge 类 阅读全文

posted @ 2022-03-10 01:24 毕达哥拉斯 阅读(81) 评论(0) 推荐(0) 编辑

AI-机器学习-自学笔记(七)支持向量机(SVG)算法

摘要: 支持向量机(Support Vector Machine, SVM)是一类按监督学习(supervised learning)方式对数据进行二元分类的广义线性分类器(generalized linear classifier),其决策边界是对学习样本求解的最大边距超平面(maximum-margin 阅读全文

posted @ 2022-03-10 01:22 毕达哥拉斯 阅读(273) 评论(0) 推荐(0) 编辑

2021年11月23日

AI-机器学习-自学笔记(六)朴素贝叶斯算法

摘要: 朴素贝叶斯算法(Naive Bayesian algorithm) 是应用最为广泛的分类算法之一。 贝叶斯定理是关于随机事件A和B的条件概率(或边缘概率)的一则定理。其中P(A|B)是在B发生的情况下A发生的可能性。 贝叶斯公式(发表于1763年): 贝叶斯分类器的分类原理是通过某对象的先验概率,利 阅读全文

posted @ 2021-11-23 17:19 毕达哥拉斯 阅读(87) 评论(0) 推荐(0) 编辑

2021年11月15日

AI-机器学习-自学笔记(五)决策树算法

摘要: 决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。 简单说就是依据熵值计算,不断地做出选择,直到获得 阅读全文

posted @ 2021-11-15 00:24 毕达哥拉斯 阅读(161) 评论(0) 推荐(0) 编辑

2021年11月6日

AI-机器学习-自学笔记(四)K邻算法(KNN)

摘要: K邻算法(k-Nearest Neighbor)是最常用也是最简单的机器学习算法之一。 关于该算法正式的表述是:如果一个样本在特征空间中的K个最相似(特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别的样本的特性。 通俗点说,就是近朱者赤近墨者黑,你周围的狐朋狗 阅读全文

posted @ 2021-11-06 02:35 毕达哥拉斯 阅读(84) 评论(0) 推荐(0) 编辑

2021年10月27日

AI-机器学习-自学笔记(三)逻辑回归算法

摘要: 逻辑回归(Logistic)是二分类任务的首选方法。它输出一个 0 到 1 之间的离散二值结果。简单来说,它的结果不是 1 就是 0。所以逻辑回归解决的是分类问题,不是回归问题。它就是通过拟合 一个逻辑函数 (Logit Function )来预测一个事件发生的概率 所以它预测的是一个概率值。它的输 阅读全文

posted @ 2021-10-27 01:00 毕达哥拉斯 阅读(95) 评论(0) 推荐(0) 编辑

2021年10月26日

AI-机器学习-自学笔记(二)线性回归

摘要: 在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。 基本函数形式: 一元线性函数: y=w*x+b # 一元线性回归的实现 # 导入matplotlib库,主要用于可视化 import numpy 阅读全文

posted @ 2021-10-26 01:56 毕达哥拉斯 阅读(130) 评论(0) 推荐(0) 编辑

2021年10月25日

AI-机器学习-自学笔记(一)机器学习概述

摘要: 机器学习( Machine Learning , ML )是一门多领域的交叉学科涉及概率论、统计学、线性代数、算法等多门学科 它专门研究计算机如何模拟和学习人的行为,以获取新的知识或技能,重新组织已有的知识结构使之不断完善自身的性能。 AI(人工智能)、深度学习、机器学习都是经常会使用到的概念,那么 阅读全文

posted @ 2021-10-25 21:57 毕达哥拉斯 阅读(165) 评论(0) 推荐(0) 编辑

导航