机器学习基础 1:成本函数 |将最佳线拟合到数据

机器学习基础 1:成本函数 |将最佳线拟合到数据

一个 吴恩达 ,斯坦福大学教授和机器学习领域最著名的人物说:

人工智能是新的电力 .

要开始使用 ML,大多数学生会花费太多时间来学习应该为 ML 学习哪种语言。事实上,任何语言你都可以学得更晚或更早,但在 ML 中最重要的是掌握它的概念。稍后,您可以选择使用哪种工具来练习和实施这些概念。

我个人推荐 Andrew NG 在 Coursera 上的课程从 ML 开始。要挖掘更多信息,您可以从最后提到的不同 youtube 频道和网站获得帮助。

我在参加 Andrew NG 的课程时研究了一些来自互联网的术语和概念,因为它有点简单地解释了这些概念。因此,在本文中,我将详细解释 ML 最基本的概念,即成本函数,以便如果有人难以理解这个概念或 ML 的绝对初学者。

什么是成本函数?

每当我们遇到像线性回归这样的问题时,我们必须找到适合我们数据集的最佳线。这条线告诉我们基于我们的实际数据的预测。我们的预测模型中可以有多个参数。但是让我们从一个基本的例子开始。

在上面的示例中,假设在 x 轴上是鼠标重量,在 y 轴上是鼠标大小。我们想根据鼠标重量找到鼠标大小。我们给出了一些示例数据,这些数据是图表上的白点。我们有 9 个实际数据的值,但是如果我们想根据给定的鼠标重量找到鼠标大小怎么办?为此,我们必须绘制适合的最佳线,以使其最接近所有实际数据点。通过这个,我们可以找到任何大小。但问题是我们如何找到完美拟合所有数据点的最佳线。我们不知道哪条线路是最好的线路。成本函数来了。

成本函数只不过是一个简单的函数,有助于找到这条最佳线。它是实际数据与我们的假设线之间差异的平方和。这种差异称为残差,它们的平方是残差平方。

这是我们的成本函数。这里 是实际数据点的数量。 h(x) 是我们的假设线或假设线上的点 i,y 是相应的数据点。它是平方的,因为某些数据点可能高于我们的假设线,这意味着负值。但这使得计算更加困难。所以我们使用平方来使所有值都为正。

为了让方程式更容易理解,让我们扩展方程式并进一步挖掘。考虑到我们的 假设线 为B' (成本函数中的 h(x)) .

在得到线和数据点的残差后:

这是针对一个假设线。如果我们一点一点地旋转我们的线并检查我们的哪条线最好。当我们的残差平方和最小时,我们的线将是最好的。上述特定示例的平方残差的答案是 24.6。如果我们旋转一个 line lit bit,它会在 14 左右最合适。但是如果我们像这样旋转它。它会给出最合适的 31。

我们知道这条“b”或h(x)或假设线实际上是线的方程, Y = ax+ b 或 θ0 + θ1x 其中 thetas 是参数。我们可以添加任意多的参数,这将是 n 维向量,假设我们是否要根据房屋大小、楼层数、房屋年龄来预测房价。然后我们有3个参数。但是现在我们只讨论一个参数。

所以如果我们把直线方程,更一般的术语将是

工作并没有到此结束,要找到实际上最好的线,我们必须通过逐个旋转线来找到每个假设或成本函数的平方残差,这使用导数来实现,该导数实际上给出了斜率曲线为零的最佳线。这涉及到梯度下降,这是下一个主题。但 不用担心 ,您不必手动执行此操作,在 python 或 Octave/Matlab 中它只有两行代码。但是让这些算法在后台工作是必不可少的。 实际上, 梯度下降中涉及的所有推导都只在计算机上完成,因为对于大型数据集可能需要数千次计算。为了给您简要概述,梯度下降使用了成本函数的导数。我们已经讨论了什么是成本函数。

希望对您有所帮助并掌握成本函数的概念。如果还有疑问,您可以发表评论。如需进一步帮助,您可以访问, 统计查询 频道,这对理解统计和机器学习很有帮助。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明

本文链接:https://www.qanswer.top/15414/46050508

posted @   哈哈哈来了啊啊啊  阅读(202)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· Manus爆火,是硬核还是营销?
· 终于写完轮子一部分:tcp代理 了,记录一下
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通
点击右上角即可分享
微信分享提示