《动手学深度学习 Pytorch版》 3.1 线性回归

3.1.1 线性回归的基本元素

整节理论知识,详见书本。

3.1.2 向量加速化

%matplotlib inline
import math
import time
import numpy as np
import torch
from d2l import torch as d2l
# 以后常用的计时器

class Timer:  #@save
    """记录多次运行时间"""
    def __init__(self):
        self.times = []
        self.start()

    def start(self):
        """启动计时器"""
        self.tik = time.time()

    def stop(self):
        """停止计时器并将时间记录在列表中"""
        self.times.append(time.time() - self.tik)
        return self.times[-1]

    def avg(self):
        """返回平均时间"""
        return sum(self.times) / len(self.times)

    def sum(self):
        """返回时间总和"""
        return sum(self.times)

    def cumsum(self):
        """返回累计时间"""
        return np.array(self.times).cumsum().tolist()

在训练模型时为了实现同时处理整个小批量样本需要对计算进行向量化,从而利用线性代数库,而不是使用开销巨大的 for 循环。

以下比较两种方法的时间开销:第一种方法用 for 循环逐个执行加法,第二种方法使用重载的 + 运算符(向量加法)。

n = 100000
a = torch.ones(n)
b = torch.ones(n)
c = torch.zeros(n)
timer = Timer()
for i in range(n):
    c[i] = a[i] + b[i]
f'{timer.stop():.5f} sec'
'1.73559 sec'
timer.start()
d = a + b
f'{timer.stop():.5f} sec'  # 按书上一万位的话向耗时甚至显示为0,向量化带来数量级级别的明显加速。
'0.00100 sec'

3.1.3 正态分布与平方损失

正态分布(normal distribution)概率密度函数:

p(x)=12πσ2exp(12σ2(xη)2)

def normal(X, mu, sigma):  # 计算正态分布
    p = 1 / math.sqrt(2 * math.pi * sigma**2)
    return p * np.exp(-0.5 / sigma**2 * (X - mu)**2)

正态分布改变均值会产生沿 X 轴的偏移,增加方差会分散分布并降低峰值。

x = np.arange(-7, 7, 0.01)

params = [(0, 1), (0, 2), (3, 1)]  # 均值和标准差对
d2l.plot(x, [normal(x, mu, sigma) for mu,sigma in params],
         xlabel='x', ylabel='p(x)', figsize=(4.5, 2.5),
         legend=[f'mean {mu}, std {sigma}' for mu,sigma in params])


image

在高斯噪声(正态分布)的假设下,最小化均方误差等价与对线性模型的极大似然估计。(具体推到详见课本)

3.1.4 从线性回归到深度网络

整节理论知识,详见书本。

练习

(1)假设我们有一些数据 x1,x2,,xnR。我们的目标是找到一个常数 b,使得最小化 i(xib)2

a. 找到最优值的解析解。

b. 这个问题及其解与正态分布有什么关系?

a. 令 l(b)=i=0n(xib)2,对 b 求导得:

dl(b)db=2i=0n(xib)=2i=0nxi+2nb

令导数等于 0,则:

2nb=2i=0nxi

b 的解析解为:

b=1ni=0nxi

b. 此问题实际为最小化均方误差,在正态分布中其等价于对线性模型的极大似然估计,即若 x1,x2,,xnN(μ,σ2)b=σ


(2)推导出使用平方误差的线性回归优化问题的解析解。为了简化问题,可以忽略偏置 b(我们可以通过向 X 添加所有值为 1 的一列来做到这一点)。

a. 用矩阵和向量表示法写出优化问题(将所有数据视为单个矩阵,将所有目标值视为单个向量)。

b. 计算损失对 w 的梯度。

c. 通过将梯度设为 0 并求解矩阵方程来找到解析解。

d. 什么时候可能比使用随机梯度下降更好?这种方法何时会失效?

a. 令 y^=XW,则

L(X,W)=12||yy^||2=12(yXW)T(yXW)

b.

(1)L(X,W)=12(yXW)T(yXW)(2)=12(yTWTXT)(yXW)(3)=12(yTyyTXWWTXTy+WTXTXW)(4)=12(yTy2YTXW+WTXTXW)

则求导得:

L(X,W)W=XTy+XTXW

c. 令梯度等于 0 得:

XTXW=XTy

XTX 可逆则:

W=(XTX)1XTy

d. 由上式可知,若 XTX 不可逆则解析解方法失效。


(3)假定控制附加噪声 ϵ 的噪声模型呈指数分布,也就是 p(ϵ)=12exp(|ϵ|)

a. 写出模型 logP(y|X) 下数据的负对数似然。

b. 请试着写出解析解。

c. 提出一种随机梯度下降算法来解决这个问题,哪里可能出错?(提示:当我们不断更新参数时,在驻点附近会发生什么情况)请尝试解决这个问题。

a. 令 y=wTx+b+ϵ

噪声模型呈指数分布则:

P(y|x)=12exp(|ywTxb|)

(5)P(y|X)=i=1nP(y(i)|x(i))(6)=i=1n12exp(|y(i)wTx(i)b|)(7)=(12)nexp(i=1n|y(i)wTx(i)b|)

logP(y|X)=nlog2+i=1n|y(i)wTx(i)b|

b. 有绝对值,应该是不可导得

c. 取平方就可导了

posted @   AncilunKiang  阅读(109)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
点击右上角即可分享
微信分享提示