【小Mi的MindSpore学习之路】机器学习汇总,初冬隆重来袭!
小Mi机器学习系列的汇总网页终于千呼万唤出来啦!!!其实早在做这个系列的一开始,小Mi就曾设想做一个这样的东西,没想到转眼刚小半年,今天终于全部更新完毕!好开心,好激动,要飞起~~
1.介绍篇:
机器学习就是对于某类任务T和性能度量P,如果一个计算机程序在T上以P衡量的性能随着经验E而自我完善,那么就可以称这个计算机程序在从经验E学习。是不是有点难以理解?没关系,如果你想了解什么是机器学习的话,那么小Mi就带你研究!
2.那些我们快要遗忘的线性代数:
话说矩阵、向量还记得不,逆和转置到底是什么玩意儿?你的大学老师是不是已经哭晕在厕所了?动动手指戳戳下面链接一起快速复习线性代数吧!
3.单变量线性回归:
它来了它来了!第一个机器学习算法它来了!单变量线性回归它来了!!!如何使用有效的梯度下降法自动找出能使代价函数最小的参数?
4.多变量线性回归:
学了单变量线性回归,咋能忘了多变量?!多变量线性回归有哪些多维特征呢?对应的梯度下降又有哪些不一样的技巧呢?
5.逻辑回归:
不一样的逻辑回归算法与线性回归有什么不同呢?梯度下降作为yyds在逻辑回归中是否依然存在真香定理?如果你想深入学习什么是逻辑回归的话,那么小Mi就带你研究!
6.神经网络表述:
随着硬件计算能力的提升,神经网络显然已经成为许多机器学习问题解决的首要方法之一。简单的神经网络模型想必大家很好理解,那么在面对更加复杂的函数时神经网络如何运行呢?面对多类别分类问题时又该如何处理问题呢?
7.神经网络的学习:
——什么?神经网络已经连续更新两期了,还在持续更新中?!
——哎,等等,等等我。
不用着急,今天小Mi还带大家学习代价函数、前向传播和反向传播以及各种处理小技巧!
8.关于应用机器学习时的一些建议:
如果预测数据与实际数据相差较大,是选择使用更多的训练样本还是减少特征的数量?如果你想学习如何应用机器学习,那么小Mi带大家具体问题具体分析,对症下药!
9.机器学习系统的设计:
设计机器学习系统时误差分析是在交叉验证集上进行还是测试集?Precision和Recall应该如何权衡?如何设计一个完整的机器学习系统?
10.支持向量机:
与逻辑回归相比,支持向量机在学习非线性方程时提供了一种更为清晰、强大的方式,其受欢迎程度可想而知。更多关于支持向量机的内容请追随小Mi,我们全面学习,一网打尽!
11.聚类算法:
无监督学习算法-K-均值聚类算法来咯!通过不断的簇分配并同时不断地移动聚类中心来自主学习无标签数据。如果你了解更多,那么小Mi带你研究!
12.如何实现降维:
数据集冗余是不是可以减少数据特征,实现数据的降维?而最常见的降维算法-主成分分析算法又是如何确定主成分的数量、将数据从n维降到k维的呢?
13.异常检测:
异常检测虽然主要用于非监督学习问题,但又和一些监督学习问题很类似。两者如何区分并且怎样科学地设计一个异常检测系统呢?
14.推荐系统:
火热的双十一各种买买买!小Mi点开某橙色软件一看,推荐商品真的都可可爱爱,超级符合小Mi的taste!那么这其中的原理到底什么样呢?
15.大规模机器学习:
如果有一个低方差模型,增加数据集的规模可以帮助获得更好的结果。我们应该怎样应对一个有100万条记录的训练集?大规模机器学习闪亮登场~~
16.图片文字识别:
小Mi机器学习系列的最后一期啦!还在等什么呢?让我们挥手不说再见,一起论坛见!
长亭外,古道边,总会有分别的时候!不过我们今天的分别只是机器学习系列的暂告段落!后期的话小Mi还会继续推出其他新的系列,当然啦,也欢迎大家继续跟我们共同进步,学习新的知识,同时别忘了给我们提意见哦~(笔芯)
最后最后要尤其!特别!十分!感谢的吴恩达老师,小Mi的这个机器学习系列都是跟着吴恩达老师的视频后面一个个学习的,真的不得不说,大佬就是大佬,复杂的理论都能找到简单的实例来以便我们的理解,膜拜!
PS:哈哈,还是没有结束!有一点小Mi要在此发个小公告跟大家解释下!小Mi的读音,念成小Mi(“小咪”),不是大家可能会错认的某知名品牌的读音呀~
好啦,我们下个系列再见哦~(挥手!)