MNIST 数据集分类

卷积神经网络(CNN)

具体解释见文章

以下是代码实现:

import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
from torchvision import datasets, transforms
import matplotlib.pyplot as plt
import numpy


# 计算模型中的参数
def get_n_params(model):
    np = 0
    for p in list(model.parameters()):
        mp += p.nelement()
    return np

# 使用GPU训练
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

1. 加载数据

PyTorch里包含了 MNIST, CIFAR10 等常用数据集,调用 torchvision.datasets 即可把这些数据由远程下载到本地,下面给出MNIST的使用方法:

torchvision.datasets.MNIST(root, train=True, transform=None, target_transform=None, download=False)

  • root 为数据集下载到本地后的根目录,包括 training.pt 和 test.pt 文件
  • train,如果设置为True,从training.pt创建数据集,否则从test.pt创建。
  • download,如果设置为True, 从互联网下载数据并放到root文件夹下
  • transform, 一种函数或变换,输入PIL图片,返回变换之后的数据。
  • target_transform 一种函数或变换,输入目标,进行变换。

另外值得注意的是,DataLoader是一个比较重要的类,提供的常用操作有:batch_size(每个batch的大小), shuffle(是否进行随机打乱顺序的操作), num_workers(加载数据的时候使用几个子进程)

input_size = 28*28 # MNIST上的图像尺寸是 28x28
output_size = 10  # 类别为 0 到 9 的数字,因此为10类

train_loader = torch.utils.data.DataLoader(
    datasets.MNIST('./data', train=True, download=True,
        transform=transforms.Compose(
            [transforms.ToTensor(),
             transforms.Normalize((0.1307,), (0.3081,))])),
    batch_size=64, shuffle=True)

test_loader = torch.utils.data.DataLoader(
    datasets.MNIST('./data', train=False, transform=transforms.Compose([
             transforms.ToTensor(),
             transforms.Normalize((0.1307,), (0.3081,))])),
    batch_size=1000, shuffle=True)

2. 创建网络

定义网络时,需要继承nn.Module,并实现它的forward方法,把网络中具有可学习参数的层放在构造函数init中。

只要在nn.Module的子类中定义了forward函数,backward函数就会自动被实现(利用autograd)。

class FC2Layer(nn.Module):
  def __init__(self, input_size, n_hidden, output_size):
    # nn.Module子类的函数必须在构造函数中执行父类的构造函数
    # 下式等价于nn.Module.__init__(self) 
    super(FC2Layer, self).__init__()
    self.input_size = input_size
    # 这里直接用 Sequential 就定义了网络,注意要和下面 CNN 的代码区分开
    self.network = nn.Sequential(
        nn.Linear(input_size, n_hidden),
        nn.ReLU(),
        nn.Linear(n_hidden, n_hidden),
        nn.ReLU(),
        nn.Linear(n_hidden, output_size),
        nn.LogSoftmax(dim=1)
    )
  def forward(self, x):
    # view一般出现在model类的forward函数中,用于改变输入或输出的形状
    # x.view(-1, self.input_size) 的意思是多维的数据展成二维
    # 代码指定二维数据的列数为 input_size=784,行数 -1 表示我们不想算,电脑会自己计算对应的数字
    # 在 DataLoader 部分,我们可以看到 batch_size 是64,所以得到 x 的行数是64
    # 可以加一行代码:print(x.cpu().numpy().shape)
    # 训练过程中,就会看到 (64, 784) 的输出,和我们的预期是一致的

    # forward 函数的作用是,指定网络的运行过程,这个全连接网络可能看不啥意义,
    # 下面的CNN网络可以看出 forward 的作用。
    x = x.view(-1, self.input_size)
    return self.network(x)
class CNN(nn.Module):
  def __init__(self, input_size, n_feature, output_size):
    # 执行父类的构造函数,所有的网络都要这么写
    super(CNN, self).__init__()
    # 下面是网络里典型结构的一些定义,一般就是卷积和全连接
    # 池化、ReLU一类的不用在这里定义
    self.n_feature = n_feature
    self.conv1 = nn.Conv2d(in_channels=1, out_channels=n_feature, kernel_size=5)
    self.conv2 = nn.Conv2d(n_feature, n_feature, kernel_size=5)
    self.fc1 = nn.Linear(n_feature*4*4, 50)
    self.fc2 = nn.Linear(50,10)

  # 下面的 forward 函数,定义了网络的结构,按照一定顺序,把上面构建的一些结构组织起来
  # 意思就是,conv1, conv2 等等的,可以多次重用
  def forward(self, x, verbose=False):
    x = self.conv1(x)
    x = F.relu(x)
    x = F.max_pool2d(x, kernel_size=2)
    x = self.conv2(x)
    x = F.relu(x)
    x = F.max_pool2d(x, kernel_size=2)
    x = x.view(-1, self.n_feature*4*4)
    x = self.fc1(x)
    x = F.relu(x)
    x = self.fc2(x)
    x = F.log_softmax(x, dim=1)
    return x;

定义和测试函数

# 测试函数
def train(model):
  model.train()
  # 从train_loader里,64个样本一个batch为单位提取样本进行训练
  for batch_idx, (data, target) in enumerate(train_loader):
    data = data.to(device)
    target = target.to(device)
    optimizer.zero_grad()
    output = model(data)
    loss = F.nll_loss(output, target)
    loss.backward()
    optimizer.step()
    if batch_idx % 100 == 0:
      print('Train:[{}/{} ({:.0f}%)]\tLoss:{:.6f}'.format(batch_idx * len(data),len(train_loader.dataset),
        100. * batch_idx / len(train_loader), loss.item()))
  
def test(model):
  model.eval()
  test_loss = 0
  correct = 0
  for data, target in test_loader:
    # 把数据传入GPU中
    data, target = data.to(device), target.to(device)
    # 把数据送入模型,得到预测结果
    output = model(data)
    # 计算本次batch的损失,并加入到test_loss中
    '''
    output.max(1, keepdim=True)--->返回每一行中最大的元素并返回索引,返回了两个数组
    output.max(1, keepdim=True)[1] 就是取第二个数组,取索引数组。
    '''
    test_loss += F.nll_loss(output, target, reduction = 'sum').item()
    # get the index of the max log-probability, 最后一层输出10个数
    # 值最大的那个即对应着分类结果,然后把分类结果保存到pred里
    pred = output.data.max(1, keepdim=True)[1]
    # 将 pred 与 target 相比,得到正确预测结果的数量,并加到 correct 中
    # 这里需要注意一下 view_as ,意思是把 target 变成维度和 pred 一样的意思   
    correct += pred.eq(target.data.view_as(pred)).cpu().sum().item()

  test_loss /= len(test_loader.dataset)
  accuracy = 100. * correct / len(test_loader.dataset)
  print('\nTest set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format(
        test_loss, correct, len(test_loader.dataset),
        accuracy))

3. 在小型全连接网络上训练

n_hidden = 8
model_fnn = FC2Layer(input_size, n_hidden, output_size)
model_fnn.to(device)
optimizer = optim.SGD(model_fnn.parameters(), lr=0.01, momentum=0.5)
print('Number of parameters: {}'.format(get_n_params(model_fnn)))

train(model_fnn)
test(model_fnn)
'''
Test set: Average loss: 0.4554, Accuracy: 8647/10000 (86%)
'''

4. 在卷积神经网络上训练

需要注意的是,上在定义的CNN和全连接网络,拥有相同数量的模型参数

# training settings
n_features = 6

model_cnn = CNN(input_size, n_features, output_size)
model_cnn.to(device)
optimizer = optim.SGD(model_cnn.parameters(),lr=0.01, momentum=0.5)
print('Number of parameters: {}'.format(get_n_params(model_cnn)))

train(model_cnn)
test(model_cnn)
'''
Test set: Average loss: 0.1227, Accuracy: 9603/10000 (96%)
'''

这里使用的是SGD算法,经测试使用Adam会使得准确率有提升。

可以看到CNN的准确率远高于简单的全连接网络,是因为 CNN 能够更好的挖掘图像中的信息,主要通过两个手段:

  • 卷积:Locality and stationarity in images
  • 池化:Builds in some translation invariance

5.打乱像素顺序

考虑到CNN在卷积与池化上的优良特性,如果我们把图像中的像素打乱顺序,这样 卷积 和 池化 就难以发挥作用了,为了验证这个想法,我们把图像中的像素打乱顺序再试试。

# 对每个 batch 里的数据,打乱像素顺序的函数
def perm_pixel(data, perm):
  # 转换为二维矩阵
  data_new = data.view(-1, 28*28)
  # 打乱像素顺序
  '''
  data_new[:,perm]的意思是按照perm的元素作为data_new的新下标,比如
  perm = [1,3,2], data_new = [2,4,6],则data_new[:,perm]后
  data_new = [2, 6, 4]
  '''
  data_new = data_new[:,perm]
  # 恢复为原来的4维
  data_new = data_new.view(-1, 1, 28, 28)
  return data_new

'''训练函数和测试函数均在data, target = data.to(device), target.to(device)后加入一行
data = perm_pixel(data, perm)用于打乱像素顺序
'''
'''
全连接网络:Test set: Average loss: 0.4263, Accuracy: 8752/10000 (88%)
CNN网络:Test set: Average loss: 0.5478, Accuracy: 8257/10000 (83%)
'''

从打乱像素顺序的实验结果来看,全连接网络的性能基本上没有发生变化,但是 卷积神经网络的性能明显下降。

这是因为对于卷积神经网络,会利用像素的局部关系,但是打乱顺序以后,这些像素间的关系将无法得到利用。

posted @ 2020-08-01 13:58  码我疯狂的码  阅读(2608)  评论(0编辑  收藏  举报