PyTorch实现多分类任务

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
import torch
import torch.nn as nn
import torch.optim as optim
 
'''定义模型'''
class SimpleModel(nn.Module):
    '''
    方便理解,这里只定义了一层网络
    input_size: 输入维度(这里表示每个样本的特征数量)
    num_classes: 输出维度(这里表示类别数量)
    '''
    def __init__(self, input_size, num_classes) -> None:
        super().__init__()
        self.linear = nn.Linear(input_size, num_classes)
         
    def forward(self, x):
        x = self.linear(x)
        # 此处没有使用激活函数 
        return x   
     
'''构造模拟数据'''
input_data = torch.randn(5, 10# 5个样本,每个样本有10个特征 
labels = torch.tensor([0, 1, 2, 0, 1])  # 5个样本,每个样本对应一个类别标签(三分类:0,1,2)
 
'''实例化模型'''
model = SimpleModel(input_size=10, num_classes=3)
 
'''定义损失函数'''
criterion = nn.CrossEntropyLoss()
 
'''定义优化器'''
optimizer = optim.SGD(model.parameters(), lr=0.1)  
 
epoch = 1000
for i in range(epoch):
    '''前向传播'''
    y = model(input_data)
 
    '''计算损失'''
    # 此处,criterion会自动将y进行softmax处理,所以不需要显式地在模型中定义softmax 
    # 同时,labels不需要进行one-hot编码,因为criterion会自动完成这一操作   
    loss = criterion(y, labels)
    print(f'Epoch {i+1}/{epoch}, Loss: {loss}')  
     
    '''反向传播 和 更新参数'''
    # 梯度清零
    optimizer.zero_grad()
    # 计算梯度
    loss.backward()
    # 更新参数
    optimizer.step()
     
    

  

posted @   映辉  阅读(57)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 展开说说关于C#中ORM框架的用法!
点击右上角即可分享
微信分享提示