2022年5月30日

神经网络与深度学习(邱锡鹏)编程练习 2 实验4 基函数回归(梯度下降法优化)

摘要: 多项式基函数 梯度下降优化过程中,产生“梯度爆炸”,在第14轮运算溢出。 def gradient(phi_grad, y, w_init, lr=0.001, step_num=16): # lr 学习率; step_num 迭代次数 w_train = w_init for i in range 阅读全文

posted @ 2022-05-30 17:10 HBU_DAVID 阅读(216) 评论(0) 推荐(1) 编辑

神经网络与深度学习(邱锡鹏)编程练习 2 实验3 基函数回归(最小二乘法优化)

摘要: 通过基函数对元素数据进行交换,从而将变量间的线性回归模型转换为非线性回归模型。 最小二乘法 + 多项式基函数 最小二乘法 + 高斯基函数 def multinomial_basis(x, feature_num=10): x = np.expand_dims(x, axis=1) # shape(N 阅读全文

posted @ 2022-05-30 16:24 HBU_DAVID 阅读(353) 评论(0) 推荐(0) 编辑

神经网络与深度学习(邱锡鹏)编程练习 2 实验2 线性回归的参数优化 - 梯度下降法

摘要: 实验结果: 源代码: import numpy as np import matplotlib.pyplot as plt def load_data(filename): # 载入数据 xys = [] with open(filename, 'r') as f: for line in f: x 阅读全文

posted @ 2022-05-30 15:19 HBU_DAVID 阅读(282) 评论(1) 推荐(0) 编辑

神经网络与深度学习(邱锡鹏)编程练习 2 实验1 线性回归的参数优化 - 最小二乘法

摘要: 实验结果: 源代码: import numpy as np import matplotlib.pyplot as plt def load_data(filename): # 载入数据 xys = [] with open(filename, 'r') as f: for line in f: x 阅读全文

posted @ 2022-05-30 14:22 HBU_DAVID 阅读(201) 评论(0) 推荐(0) 编辑

神经网络与深度学习(邱锡鹏)编程练习 2 题目解析

摘要: 实验1:线性回归的参数优化-最小二乘法 1 最小二乘法原理 基于均方误差最小化进行模型求解。 线性回归中,试图找到一条直线,使所有样本到直线的欧氏距离之和最小。(西瓜书P54) 图源:NNDL P34 2 最小二乘法优化公式 (参考书中第二章 2.3中的公式),在main()中利用训练集训练模型的参 阅读全文

posted @ 2022-05-30 11:20 HBU_DAVID 阅读(471) 评论(0) 推荐(0) 编辑

神经网络与深度学习(邱锡鹏)编程练习 2 线性回归 参数优化 不同基函数实现

摘要: 说明 请按照填空顺序编号分别完成 参数优化,不同基函数的实现 import numpy as np import matplotlib.pyplot as plt def load_data(filename): """载入数据。""" xys = [] with open(filename, 'r 阅读全文

posted @ 2022-05-30 11:06 HBU_DAVID 阅读(310) 评论(0) 推荐(0) 编辑

神经网络与深度学习(邱锡鹏)编程练习 1 numpy 练习

摘要: numpy 练习题 numpy 的array操作 1.导入numpy库 2.建立一个一维数组 a 初始化为[4,5,6], (1)输出a 的类型(type)(2)输出a的各维度的大小(shape)(3)输出 a的第一个元素(值为4) 3.建立一个二维数组 b,初始化为 [ [4, 5, 6],[1, 阅读全文

posted @ 2022-05-30 10:55 HBU_DAVID 阅读(129) 评论(0) 推荐(0) 编辑

导航