摘要: 目录1. 为什么要对样本进行 归一化2. 归一化的方式一 最大最小值3. 归一化的方式二 标准归一化 1. 为什么要对样本进行 归一化 样本之间的数量级是千差万别 有量纲的 例如: theta1 >> theta2 数值小的 theta2 反而能快速的 收敛 数值大的 theta1 收敛较慢 出现 阅读全文
posted @ 2023-12-11 21:08 jack-chen666 阅读(46) 评论(0) 推荐(0) 编辑
摘要: 1. 随机梯度下降法 梯度计算的时候 随机抽取一条 import numpy as np X = 2 * np.random.rand(100, 1) y = 4 + 3 * X + np.random.randn(100, 1) X_b = np.c_[np.ones((100, 1)), X] 阅读全文
posted @ 2023-12-11 20:47 jack-chen666 阅读(15) 评论(0) 推荐(0) 编辑
摘要: 1. 梯度下降法 梯度: 是一个theta 与 一条样本x 组成的 映射公式 可以看出梯度的计算量主要来自于 左边部分 所有样本参与 -- 批量梯度下降法 随机抽取一条样本参与 -- 随机梯度下降法 一小部分样本参与 -- 小批量 梯度下降法 2. epoch 与 batch epoch:一次迭代 阅读全文
posted @ 2023-12-11 20:16 jack-chen666 阅读(4) 评论(0) 推荐(0) 编辑
摘要: 1. 解析解 解析解的公式 import numpy as np import matplotlib.pyplot as plt # 有监督机器学习 # X y X = 2 * np.random.rand(100, 1) # np.random.rand # 100行 1列的 [0, 1) 之间均 阅读全文
posted @ 2023-12-11 19:47 jack-chen666 阅读(12) 评论(0) 推荐(0) 编辑