摘要: 今天小Mi带大家学习如何设计一个机器学习系统,也会带大家了解设计复杂的机器学习系统时可能会遇到的一些问题。当然啦,除此之外,小Mi还会提供一些关于巧妙构建复杂机器学习系统的小tips。哦,对了,偷偷告诉你们,可能会帮助大家在构建大型的机器学习系统时,节省大量的时间哦~ 1 初始步骤 废话不多说,上例 阅读全文
posted @ 2021-12-30 21:23 Skytier 阅读(73) 评论(0) 推荐(0) 编辑
摘要: 到目前为止,小Mi已经给大家介绍了许多不同的学习算法,感觉大伙已经不知不觉地成为一个了解许多先进机器学习技术的专家啦。当然,在了解的同时如何高效有力地运用这些学习算法呢?怎样选择一条最合适、最正确的道路,而不是把时间浪费在毫无意义的尝试上呢?如果你想知道的话,那么跟着小Mi继续机器学习吧~ 1 机器 阅读全文
posted @ 2021-12-30 21:20 Skytier 阅读(58) 评论(0) 推荐(0) 编辑
摘要: 在上周小Mi给大家的介绍中,我们谈到了怎样使用反向传播算法计算代价函数的导数。今天,小Mi将继续带大家了解神经网络的实现过程,废话不多说,赶快跟小Mi一起学起来吧~ 4 实现注意:展开参数 首先,有一个细节的实现过程值得关注一下,就是如何把参数从矩阵展开成向量,以便我们在高级最优化步骤中使用。 具体 阅读全文
posted @ 2021-12-30 21:17 Skytier 阅读(49) 评论(0) 推荐(0) 编辑
摘要: 危险,危险,危险——好久不见,等你在这里见面~在经过前两期关于神经网络的简单介绍后,今天小Mi将进一步介绍神经网络的代价函数、前向传播和反向传播,废话不多说,我们开干吧~ 1 代价函数 首先引入一些便于稍后讨论的新标记方法: 假设神经网络的训练样本有m个,每个包含一组输入x和一组输出信号y,L表示神 阅读全文
posted @ 2021-12-30 21:15 Skytier 阅读(44) 评论(0) 推荐(0) 编辑
摘要: 小Mi学习,向上积极!上周小Mi简单给大家介绍了神经网络的模型表示,今天小Mi将进一步带领大家对神经网络进行进一步的深入理解,话不多说,一起学起来吧~ 5 特征和直观理解 a 从本质上讲,神经网络能够通过学习得出其自身的一系列特征。在普通的逻辑回归中,我们被限制为使用数据中的原始特征,我们虽然可以使 阅读全文
posted @ 2021-12-30 21:12 Skytier 阅读(46) 评论(0) 推荐(0) 编辑
摘要: 好久不见,甚是想念!今天小Mi继续带大家学习我们的机器学习系列。相信神经网络这个名词大家都不会陌生,神经网络实际上是一个相对比较古老的算法,沉寂了很长一段时间,不过现在随着硬件计算能力的提升,它又成为许多机器学习问题解决的首要方法。 好了,到这相信大家不由地会问了,既然已经有线性回归、逻辑回归算法了 阅读全文
posted @ 2021-12-30 21:07 Skytier 阅读(61) 评论(0) 推荐(0) 编辑
摘要: 小Mi学习,向上积极!逻辑回归的函数表示还有判决边界还记得不,是不是觉得上一节还不得劲儿?!这不,小Mi又来更新啦~ 4. 代价函数 现在我们就要开始讨论如何拟合logistic回归模型的参数,具体来说,我们要定义用来拟合参数的优化目标或者代价函数,以下便是监督学习问题中的logistic回归模型的 阅读全文
posted @ 2021-12-30 21:04 Skytier 阅读(36) 评论(0) 推荐(0) 编辑
摘要: 小Mi学习,向上积极!在前面几周的学习中,小Mi终于带着大家完完整整学完了线性回归,同时小Mi也收到了大家的很多反馈,在后续的学习中,小Mi会一一改进的!今天我们就开启新的章节学习—logistic回归(Logistic Regression) 算法吧(冲鸭)! 1 分类问题 在logistic回归 阅读全文
posted @ 2021-12-30 20:59 Skytier 阅读(109) 评论(0) 推荐(0) 编辑
摘要: 几天不见,甚是想念!小Mi系列的活动正在如火如荼地进行中,小Mi看到大伙儿的热情,动力更加十足,这不又迫不及待地更新来了! 在上期的多变量线性回归介绍中,我们学习了多维特征、多变量的梯度下降法以及在实现梯度下降过程中的特征缩放和如何选择学习率这两个技巧,今天小Mi在其基础上,继续带领大家学习多项式回 阅读全文
posted @ 2021-12-30 20:54 Skytier 阅读(62) 评论(0) 推荐(0) 编辑
摘要: 小Mi学习,向上积极!前两节小Mi带大家学习了单变量线性回归,还具体分析了自动求解最小代价函数参数的梯度下降法。这不有了单变量,是不是肯定有多变量?!今天小Mi跟大家一起讨论的就是一种更为有效,适合实际情况的形式-多变量线性回归~~ 1 多维特征 既然是多变量线性回归,那么肯定是存在多个变量或者多个 阅读全文
posted @ 2021-12-30 20:49 Skytier 阅读(50) 评论(0) 推荐(0) 编辑
摘要: 一周未见,动力不减!小Mi又带着知识点和大家见面啦!(敲黑板~) 上周小Mi带着大家简单地学习了机器学习的概念,还有其常见的两个大类,监督学习和无监督学习,这次小Mi决定跟大家一起复习下机器学习中常用的线性代数知识。话说矩阵、向量还记得不,逆和转置到底是什么玩意儿?你的大学老师是不是已经哭晕在厕所了 阅读全文
posted @ 2021-12-30 20:45 Skytier 阅读(162) 评论(0) 推荐(0) 编辑
摘要: 小Mi学习,向上积极!在上一篇机器学习中,小Mi已经带大家认识了单变量线性回归的数学模型,以及对应代价函数的图形解释,小Mi也提及过,我们真正需要的是一种有效的算法,能够自动地找出这些使代价函数J取最小值的参数,来,因此它来了它来了!今天小Mi在此基础上,继续带大家一起学习梯度下降算法。 3梯度下降 阅读全文
posted @ 2021-12-30 20:40 Skytier 阅读(38) 评论(0) 推荐(0) 编辑
摘要: 几天不见,动力不减!话说回来,我们要正式开始挑起大梁干大事了,前面一段时间,小Mi已经带大家初步了解了机器学习,复习了机器学习中需要用到的线性代数知识点,这次我们就要开始正式学习监督学习下的单变量线性回归(那么后面是不是还有多变量线性回归?Bingo!答对了!)啦。那就废话不多说,抓紧时间跟小Mi一 阅读全文
posted @ 2021-12-30 20:34 Skytier 阅读(43) 评论(0) 推荐(0) 编辑
摘要: 一周未见,,甚是想念!今天小Mi带大家学习如何降维,这是我们遇到的第二种类型的无监督学习问题!废话不多说,我们开始吧~ 1 降维示例 首先,什么是降维呢?这个问题应该最先搞清楚,由于数据集通常有许多特征,我们可以举一个简单的例子来分析: 假设有未知两个的特征:长度,用厘米表示;是用英寸表示同一物体的 阅读全文
posted @ 2021-12-30 16:25 Skytier 阅读(114) 评论(0) 推荐(0) 编辑
摘要: 深度学习,听到这个词大家肯定一点都不陌生,没错,今天开始,小Mi带领大家进入全新的系列——跟着小Mi一起深度学习,让我们有态度地深度学习! 概念区分 那么有人就会问了,不是已经学过机器学习了吗?还需要学习深度学习干啥?其实在机器学习这块,小Mi只是简单给大家介绍了各种学习的算法,而深度学习算得上是机 阅读全文
posted @ 2021-12-30 15:40 Skytier 阅读(149) 评论(0) 推荐(0) 编辑