Pytorch:自定义Subset/Dataset类完成数据集拆分

1 关于Pytorch内置的Dataset

我们在《torch.utils.data.DataLoader与迭代器转换》中介绍了如何使用Pytorch内置的数据集进行论文实现,如torchvision.datasets。下面是加载内置训练数据集的常见操作:

from torchvision.datasets import FashionMNIST
from torchvision.transforms import Compose, ToTensor, Normalize
RAW_DATA_PATH = './rawdata'
transform = Compose(
        [ToTensor(),
         Normalize((0.1307,), (0.3081,))
         ]
    )
train_data = FashionMNIST(
        root=RAW_DATA_PATH,
        download=True,
        train=True,
        transform=transform
    )

这里的train_data做为dataset对象,它拥有许多熟悉,我们可以通过以下方法获取样本数据的分类类别集合、样本的特征维度、样本的标签集合等信息。

classes = train_data.classes
num_features = train_data.data[0].shape[0]
train_labels = train_data.targets

print(classes)
print(num_features)
print(train_labels)

输出如下:

['T-shirt/top', 'Trouser', 'Pullover', 'Dress', 'Coat', 'Sandal', 'Shirt', 'Sneaker', 'Bag', 'Ankle boot']
28
tensor([9, 0, 0,  ..., 3, 0, 5])

但是,我们常常会在训练集的基础上拆分出验证集(或者只用部分数据来进行训练),而我们在后续的代码中常常会将拆分后的数据集也默认为Dataset对象,那么我们如何保证拆分后的对象还能够具备Dataset类应有的属性和功能,从而做到代码的一致性呢?

2 自定义Subset类

关于数据集拆分,我们想到的第一个方法是使用torch.utils.data.random_splitdataset进行划分,下面我们假设划分10000个样本做为训练集,其余样本做为验证集:

from torch.utils.data import random_split
k = 10000
train_data, valid_data = random_split(train_data, [k, len(train_data)-k])

注意我们如果打印train_datavalid_data的类型,可以看到显示:

<class 'torch.utils.data.dataset.Subset'>

已经不再是torchvision.datasets.mnist.FashionMNIST对象,而是一个所谓的Subset对象!此时Subset对象虽然仍然还存有data属性,但是内置的targetclasses属性已经不复存在,比如如果我们强行访问valid_datatarget属性:

valid_target = valid_data.target

就会报如下错误:

'Subset' object has no attribute 'target'

为了解决这个问题,这里有一个trick,那就是以继承SubSet类的方式的方式定义一个新的CustomSubSet类,使新类在保持SubSet类的基本属性的基础上,拥有和原本数据集类相似的属性,如targetsclasses等:

from torch.utils.data import Subset
class CustomSubset(Subset):
    '''A custom subset class'''
    def __init__(self, dataset, indices):
        super().__init__(dataset, indices)
        self.targets = dataset.targets # 保留targets属性
        self.classes = dataset.classes # 保留classes属性

    def __getitem__(self, idx): #同时支持索引访问操作
        x, y = self.dataset[self.indices[idx]]      
        return x, y 

    def __len__(self): # 同时支持取长度操作
        return len(self.indices)

然后就引出了第二种划分方法,即通过初始化CustomSubset对象的方式直接对数据集进行划分(这里为了简化省略了shuffle的步骤):

import numpy as np
from copy import deepcopy
origin_data = deepcopy(train_data)
train_data = CustomSubset(origin_data, np.arange(k))
valid_data = CustomSubset(origin_data, np.arange(k, len(origin_data))-k)

注意,CustomSubset类的初始化方法的第二个参数indices为样本索引,我们可以通过np.arange()的方法来创建。

然后,我们再访问valid_data对应的classestarges属性:

print(valid_data.classes)
print(valid_data.targets)

此时,我们发现可以成功访问这些属性了:

['T-shirt/top', 'Trouser', 'Pullover', 'Dress', 'Coat', 'Sandal', 'Shirt', 'Sneaker', 'Bag', 'Ankle boot']
tensor([9, 0, 0,  ..., 3, 0, 5])

当然,CustomSubset的作用并不只是添加数据集的属性,我们还可以自定义一些数据预处理操作。我们将类的结构修改如下:

class CustomSubset(Subset):
    '''A custom subset class with customizable data transformation'''
    def __init__(self, dataset, indices, subset_transform=None):
        super().__init__(dataset, indices)
        self.targets = dataset.targets
        self.classes = dataset.classes
        self.subset_transform = subset_transform

    def __getitem__(self, idx):
        x, y = self.dataset[self.indices[idx]]
        
        if self.subset_transform:
            x = self.subset_transform(x)
      
        return x, y   
    
    def __len__(self): 
        return len(self.indices)

我们可以在使用样本前设置好数据预处理算子:

from torchvision import transforms
valid_data.subset_transform = transforms.Compose(\
    [transforms.RandomRotation((180,180))])

这样,我们再像下列这样用索引访问取出数据集样本时,就会自动调用算子完成预处理操作:

print(valid_data[0])

打印结果缩略如下:


(tensor([[[-0.4242, -0.4242, -0.4242, ......-0.4242, -0.4242, -0.4242, -0.4242, -0.4242]]]), 9)

3 自定义Dataset类

推广到更一般的情况,我们可以直接自定义数据集。操作几乎跟上面所说的完全一致,比如在这里我们可以直接继承torch.utils.data.Dataset类然后自定义一个CustomDataset类就行。如下所示:

from torch.utils.data import Dataset

class CustomDataset(Dataset):
    """An abstract Dataset class wrapped around Pytorch Dataset class.
    """

    def __init__(self, dataset, indices):
        self.dataset = dataset
        self.indices = [int(i) for i in indices]
        self.targets = dataset.targets # 保留targets属性
        self.classes = dataset.classes # 保留classes属性
        
    def __len__(self):
        return len(self.indices)

    def __getitem__(self, item):
        x, y = self.dataset[self.indices[item]]
        return x, y

事实上,自定义Dataset类的使用远不限于训练集和测试集的拆分(我们这里仅仅是用训练集和测试集的拆分来举个例子),还可以用于许多CV、NLP的数据集自定义。所有自定义的数据集在重写了__getitem__方法和__len__方法后,那么我们就可以使用torch.utils.data.DataLoader(参见《torch.utils.data.DataLoader与迭代器转换》)将自定义的数据集像普通数据集一样进行迭代训练。对我们自定义Dataset类的迭代测试如下:

import numpy as np
from torch.utils.data import DataLoader
from torchvision.datasets import FashionMNIST
from torchvision.transforms import Compose, ToTensor, Normalize
if __name__ == "__main__":
    
    RAW_DATA_PATH = './rawdata'
    transform = Compose(
            [ToTensor(),
            Normalize((0.1307,), (0.3081,))
            ]
        )
    train_data = FashionMNIST(
            root=RAW_DATA_PATH,
            download=True,
            train=True,
            transform=transform
        )


    train_dataset = CustomDataset(train_data, np.arange(100, 200))

    # train_dataloader
    train_dataloader = DataLoader(train_dataset, batch_size=64, shuffle=True)

    for batch_idx, (images, labels) in enumerate(train_dataloader):
            print("Iteration %d: " % batch_idx, images.shape, labels.shape)

可以看到,我们设置索引为\([100,200)\)内的样本为训练样本,然后采用batch size大小为\(64\)进行迭代,可以看到迭代结果如下:

Iteration 0:  torch.Size([64, 1, 28, 28]) torch.Size([64])
Iteration 1:  torch.Size([36, 1, 28, 28]) torch.Size([36])

可见我们自定义的数据集类工作正确。

引用

posted @ 2022-02-17 19:29  orion-orion  阅读(8142)  评论(0编辑  收藏  举报