摘要: 在这节中,将介绍一些特殊的矩阵运算,也就是矩阵的逆运算以及矩阵的转置运算。 矩阵的逆:假设我们有矩阵A,矩阵A是一个m×m矩阵,如果有逆矩阵,则AA-1=A-1A=I。A的逆矩阵写成A-1。 只有m×m矩阵才有逆矩阵,m×m矩阵也被称为方阵。这类矩阵的行数和列数相等。 下面我们看一个例子。 那么怎么 阅读全文
posted @ 2020-03-30 21:51 不爱学习的Shirley 阅读(501) 评论(0) 推荐(0) 编辑
摘要: 矩阵乘法运算非常实用,因为你可以大量运算打包,然后用一次矩阵的乘法运算。但是要注意如何使用这个方法。在这节中,我们将介绍一些矩阵乘法的特性。 实数的乘法或者说标量的乘法是可交换的。如:3×5=5×3。在这个乘法运算中顺序是不太重要的。但是,在矩阵中并不能交换顺序。 即 A×B ≠ B×A。 下面看一 阅读全文
posted @ 2020-03-30 20:18 不爱学习的Shirley 阅读(525) 评论(0) 推荐(0) 编辑
摘要: 本节主要讲的是矩阵与矩阵的乘法。我们讨论的这种方法在线性回归中用以同时解决θ1和θ0的计算问题,而不需要梯度下降法。 首先我们先来看一个例子,比方说我有下面两个矩阵,现在我们要计算它们相乘之后的结果。 上面这个例子中,一个2×3的矩阵与一个3×2的矩阵相乘得到的是一个2×2的矩阵。 接下来,我们讲一 阅读全文
posted @ 2020-03-30 19:37 不爱学习的Shirley 阅读(301) 评论(0) 推荐(0) 编辑
摘要: 在这一节中,我们会讲如何将两个矩阵相乘。 首先我们先从特例讲起,从矩阵向量相乘开始,即一个矩阵与一个向量相乘。下面来看一个例子。左边是一个矩阵,右边是一个向量。 我们不难发现一个3×2的矩阵乘以一个2乘1的矩阵(或者说是二维向量)得到的结果是一个3×1的矩阵。具体的计算规则如下图所示。 下面让我们再 阅读全文
posted @ 2020-03-30 18:03 不爱学习的Shirley 阅读(668) 评论(0) 推荐(0) 编辑
摘要: 本节我们将讨论矩阵的加法和减法运算以及如何进行数和矩阵的乘法。 如果你想将两个矩阵相加,你只需将这两个矩阵的每一元素都逐个相加。 不难发现:只有相同维度的两个矩阵才能相加,结果为与相加的两个矩阵维度相同的矩阵。两个维度不相同的矩阵相加是没有意义的。 标量乘法 不难发现,乘之前的矩阵为3×2矩阵,乘完 阅读全文
posted @ 2020-03-30 17:26 不爱学习的Shirley 阅读(317) 评论(0) 推荐(0) 编辑
摘要: 在本节中,我们会将矩阵和向量的概念。 矩阵是指由数字组成的矩形阵列,并写在方括号内。矩阵也可以说是二维数组的另一种说法。下面是一些矩阵的例子。 另外一个要注意的地方是:矩阵的维数=矩阵的行数×矩阵的列数。如上图的例子,左侧的矩阵是一个4×2的矩阵,右侧是一个2×3的矩阵。 有的时候还会有另外一种表示 阅读全文
posted @ 2020-03-30 16:56 不爱学习的Shirley 阅读(432) 评论(0) 推荐(0) 编辑
摘要: 什么是机器学习? 机器学习指的是机器通过统计学算法,对大量的历史数据进行学习从而生成经验模型,利用经验模型指导业务。 目前机器学习主要在一下一些方面发挥作用: 营销类场景:商品推荐、用户群体画像、广告精准投放 金融类场景:贷款发放预测、金融风险控制、股票走势预测、黄金价格预测 SNS关系挖掘:微博粉 阅读全文
posted @ 2020-03-30 15:43 不爱学习的Shirley 阅读(227) 评论(0) 推荐(0) 编辑
摘要: 上一节中,我们讲了梯度下降算法,这一节我们将要将梯度下降和代价函数结合得到线性回归算法。它可以用直线模型来拟合数据。 首先我们来回顾一下之前的知识点。左侧为梯度下降法,右侧为线性回归模型(包括线性假设和平方差代价函数)。 我们要做的就是将梯度下降法应用到最小化平方差代价函数。为了应用梯度下降法,我们 阅读全文
posted @ 2020-03-30 12:52 不爱学习的Shirley 阅读(269) 评论(0) 推荐(0) 编辑
摘要: 在上一节中,我们给出了一个梯度下降的数学定义。在这节中,我们将更直观地感受一下这个算法是做什么的以及梯度下降算法的更新过程有什么意义。 这个是我们上一节所讲的梯度下降算法。让我们先简单回顾一下。 α是什么?参数α是被称为学习速率。它控制我们以多大的幅度更新这个参数θj。 第二部分是一个导数项。 接下 阅读全文
posted @ 2020-03-30 11:17 不爱学习的Shirley 阅读(238) 评论(0) 推荐(0) 编辑
摘要: 之前我们已经讲了代价函数了,这节我们讲代价函数J最小化的梯度下降法。 梯度下降是很常用的算法。它不仅被用在线性回归上,还被广泛应用于机器学习的众多领域。 下面是问题概述。我们有一个函数J(θ0,θ1),这也许是个线性回归的代价函数,也许是个需要最小化的其他函数。我们需要用一个算法,来最小化函数J(θ 阅读全文
posted @ 2020-03-29 20:54 不爱学习的Shirley 阅读(292) 评论(0) 推荐(0) 编辑