吴恩达机器学习随笔(WEEK_2)
1. 梯度下降法寻找参数,使训练模型的代价函数值最小。梯度下降法就是对代价函数关于参数θ求偏导,不断迭代(一般由迭代次数限制)。梯度下降法找到的参数可能是局部最优解,而并非全局最优解。
2. 特征缩放以及均值归一化。特征缩放是为了将两个或多个范围不同的特征值缩放至近似的范围,从而使梯度下降法运行的更快一些,具体方法就是用特征值除以其自身范围。均值归一化则需要在除法之前先减去其数学期望,根据概率论知识,可以使整个特征值的数学期望归零。
1. 梯度下降法寻找参数,使训练模型的代价函数值最小。梯度下降法就是对代价函数关于参数θ求偏导,不断迭代(一般由迭代次数限制)。梯度下降法找到的参数可能是局部最优解,而并非全局最优解。
2. 特征缩放以及均值归一化。特征缩放是为了将两个或多个范围不同的特征值缩放至近似的范围,从而使梯度下降法运行的更快一些,具体方法就是用特征值除以其自身范围。均值归一化则需要在除法之前先减去其数学期望,根据概率论知识,可以使整个特征值的数学期望归零。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· AI 智能体引爆开源社区「GitHub 热点速览」
· 写一个简单的SQL生成工具