4.2.0 头文件

 

import torch
from torch import nn
from d2l import torch as d2l
from matplotlib import pyplot as plt

 

 

4.2.1 下载fashion_mnist数据集

# 定义批量大小
batch_size = 256
# 下载fashion_mnist,并对数据集进行打乱和按批量大小进行切割的操作,得到可迭代的训练集和测试集(训练集和测试集的形式都为(特征数据集合,数字标签集合))
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)

 

4.2.2 初始化模型参数

# 输入维度(28×28)、输出类别数、隐藏单元数
num_inputs, num_outputs, num_hiddens = 784, 10, 256
# W1权重规模为(784行,256列)
W1 = nn.Parameter(torch.randn(num_inputs, num_hiddens, requires_grad=True) * 0.01)
# b1偏移量规模为256个
b1 = nn.Parameter(torch.zeros(num_hiddens, requires_grad=True))
# W1权重规模为(256行,10列)
W2 = nn.Parameter(torch.randn(num_hiddens, num_outputs, requires_grad=True) * 0.01)
# b2偏移量规模为10个
b2 = nn.Parameter(torch.zeros(num_outputs, requires_grad=True))
# 将模型参数打包
params = [W1, b1, W2, b2]

 

4.2.3 网络模型

# 定义relu激活函数
def relu(X):
    a = torch.zeros_like(X)
    return torch.max(X, a)

# 定义网络模型
def net(X):
    X = X.reshape((-1, num_inputs))     #将输入特征压平成一行
    H = relu(X@W1 + b1)  # 这里“@”代表矩阵乘法      一个全连接层加relu激活函数
    return (H@W2 + b2)                 # 一个全连接层加relu激活函数

 

4.2.4 损失函数

# 定义交叉熵损失函数,得到的结果为每个样本的损失
loss = nn.CrossEntropyLoss(reduction='none')

 

4.2.4 优化器

# 定义学习率
lr = 0.1
# 定义小批量梯度下降优化器
updater = torch.optim.SGD(params, lr=lr)

 

4.2.6 训练过程

# 定义训练轮数
num_epochs = 10
# 开始训练
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, updater)

 

4.2.7 训练结果可视化

plt.savefig('Output.png')

 

 

本小节完整代码如下所示

import torch
from torch import nn
from d2l import torch as d2l
from matplotlib import pyplot as plt

# ------------------------------下载fashion_mnist数据集------------------------------------

# 定义批量大小
batch_size = 256
# 下载fashion_mnist,并对数据集进行打乱和按批量大小进行切割的操作,得到可迭代的训练集和测试集(训练集和测试集的形式都为(特征数据集合,数字标签集合))
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)


# ------------------------------初始化模型参数------------------------------------

# 输入维度(28×28)、输出类别数、隐藏单元数
num_inputs, num_outputs, num_hiddens = 784, 10, 256
# W1权重规模为(784行,256列)
W1 = nn.Parameter(torch.randn(num_inputs, num_hiddens, requires_grad=True) * 0.01)
# b1偏移量规模为256个
b1 = nn.Parameter(torch.zeros(num_hiddens, requires_grad=True))
# W1权重规模为(256行,10列)
W2 = nn.Parameter(torch.randn(num_hiddens, num_outputs, requires_grad=True) * 0.01)
# b2偏移量规模为10个
b2 = nn.Parameter(torch.zeros(num_outputs, requires_grad=True))
# 将模型参数打包
params = [W1, b1, W2, b2]

# ------------------------------网络模型------------------------------------

# 定义relu激活函数
def relu(X):
    a = torch.zeros_like(X)
    return torch.max(X, a)

# 定义网络模型
def net(X):
    X = X.reshape((-1, num_inputs))     #将输入特征压平成一行
    H = relu(X@W1 + b1)  # 这里“@”代表矩阵乘法      一个全连接层加relu激活函数
    return (H@W2 + b2)                 # 一个全连接层加relu激活函数

# ------------------------------损失函数------------------------------------

# 定义交叉熵损失函数,得到的结果为每个样本的损失
loss = nn.CrossEntropyLoss(reduction='none')

# ------------------------------优化器------------------------------------

# 定义学习率
lr = 0.1
# 定义小批量梯度下降优化器
updater = torch.optim.SGD(params, lr=lr)

# ------------------------------训练过程------------------------------------

# 定义训练轮数
num_epochs = 10
# 开始训练
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, updater)


# ------------------------------训练结果可视化------------------------------------

plt.savefig('Output.png')

 

posted on 2022-11-03 23:52  yc-limitless  阅读(30)  评论(0编辑  收藏  举报