摘要:介绍 梯度下降算法是一种迭代算法,用于找到目标函数(成本函数)的 全局最小值。GD算法的分类是针对准确性和耗时因素的,下面将详细讨论。该算法广泛用于机器学习中以使功能最小化。 为什么要使用梯度下降算法? 我们使用梯度下降来最小化J(?)之类的函数。在梯度下降中,我们的第一步是通过某个值初始化参数,并
阅读全文
摘要:了解梯度下降很重要,因为它是机器学习和深度学习算法中部署的最常用的优化方法。它用于训练机器学习模型,并且基于凸函数。 通过迭代过程,梯度下降通过使用偏微分方程或PDE来精炼一组参数。这样做是为了将给定的成本函数最小化到其局部最小值。梯度下降是法国数学家路易斯·奥古斯丁·柯西(Louis August
阅读全文
摘要:import matplotlib.pyplot as pltimport numpy as npdef hypothesis(theta, X, n): h = np.ones((X.shape[0],1)) theta = theta.reshape(1,n+1) for i in range(
阅读全文
摘要:随着深度学习的飞速发展,已经创建了整个神经网络架构,以解决各种各样的任务和问题。尽管存在无数的神经网络架构,但对于任何深度学习工程师来说,这里有11种必不可少的知识,它们分为四大类:标准网络,递归网络,卷积网络和自动编码器。 标准网络 1 | 感知器 感知器是所有神经网络中最基础的,是更复杂的神经网
阅读全文
摘要:多项式回归 在涉及单个特征或变量的回归的预测分析问题(称为单变量回归)中,多项式回归是回归分析的重要变体,主要充当线性回归方面的性能提升。在本文中,我将介绍多项式回归,从零开始的Python实现以及在实际问题和性能分析上的应用。 如前缀“多项式”所示,机器学习算法的相应假设是多项式或多项式方程式。因
阅读全文
摘要:绩效分析(SGD与BGD) 模型性能分析是根据以下指标完成的: =>平均绝对误差:实例样本的预测值与实际观测值之间的平均mod(差)。 查找MAE: ae = 0 # Absolute Errorfor i in range(0,y_train.shape[0]): ae = ae + abs(tr
阅读全文
摘要:回归是对特征空间中的数据或数据点进行连续分类的一种方法。弗朗西斯·高尔顿(Francis Galton)于1886年发明了回归线的用法[1]。 线性回归 这是多项式回归的一种特殊情况,其中假设中多项式的阶数为1。本文的后半部分讨论了一般多项式回归。顾名思义,“线性”是指有关机器学习算法的假设本质上是
阅读全文
摘要:使用3-D散点图对特征和目标变量的实际和预测进行并排可视化: =>实际目标变量可视化: from matplotlib import pyplotfrom mpl_toolkits.mplot3d import Axes3Dsequence_containing_x_vals = list(X_tr
阅读全文
摘要:机器学习的最实际应用涉及目标结果所依赖的多个功能。类似地,在回归分析问题中,有时目标结果取决于众多功能。多元线性回归是解决此类问题的一种可行解决方案。在本文中,我将讨论多元(多种功能)线性回归,从头开始的Python实现,在实际问题上的应用和性能分析。 由于它是一种“线性”回归技术,因此在假设的框架
阅读全文
摘要:一.分治算法 一、基本概念 在计算机科学中,分治法是一种很重要的算法。字面上的解释是“分而治之”,就是把一个复杂的问题分成两个或更多的相同或相似的子问题,再把子问题分成更小的子问题……直到最后子问题可以简单的直接求解,原问题的解即子问题的解的合并。这个技巧是很多高效算法的基础,如排序算法(快速排序,
阅读全文