在机器学习和深度学习框架中,尤其是在 PyTorch 中,Dataset 和 DataLoader 是处理和加载数据的重要工具。这里我们详细探讨这两个类的结构、用途和如何实际使用它们。
数据集(Dataset)是指存储和表示数据的类或接口。它通常用于封装数据,以便能够在机器学习任务中使用。数据集可以是任何形式的数据,比如图像、文本、音频等。数据集的主要目的是提供对数据的标准访问方法,以便可以轻松地将其用于模型训练、验证和测试。
数据加载器(DataLoader)是一个提供批量加载数据的工具。它通过将数据集分割成小批量,并按照一定的顺序加载到内存中,以提高训练效率。数据加载器常用于训练过程中的数据预处理、批量化操作和数据并行处理等。
Dataset 是一个抽象类,用于表示一个数据集的全部内容。在 PyTorch 中,任何继承自 torch.utils.data.Dataset 的自定义数据集需要实现两个必须的方法:
__getitem__(self, index)
__len__(self)
下面是一个简单的形象化例子,展示如何创建一个用于加载图像数据集的自定义 Dataset 类:
import torch
from torch.utils.data import Dataset
class IceCreamDataset(Dataset):
def __init__(self):
self.flavors = ["vanilla", "chocolate", "strawberry"]
def __len__(self):
return len(self.flavors)
def __getitem__(self, index):
return f"One scoop of {self.flavors[index]} ice cream"
ice_cream_menu = IceCreamDataset()
在这个例子中,IceCreamDataset 类定义了一个冰激凌数据。
DataLoader 是一个迭代器,用于将 Dataset 封装成易于访问的数据流,支持批量加载和多进程数据加载等操作。
dataset: 要加载的 Dataset 对象。batch_size(可选): 每个批次加载的样本数量。即对Dataset数据集进行等分,分成的份数(每份叫作一个batch)为len(dataset)/batch_size。batch_size通常是单次训练使用的数据量,默认为1。shuffle(可选): 是否在每个训练周期开始时打乱数据。num_workers(可选): 用于数据加载的进程数。一旦定义了 Dataset,就可以使用 DataLoader 来有效地加载数据:
from torch.utils.data import DataLoader
# 创建 DataLoader,每批三份不同口味的冰激凌
ice_cream_loader = DataLoader(ice_cream_menu)#等价于ice_cream_loader = DataLoader(ice_cream_menu,batch_size=1)
for batch in ice_cream_loader:
print(batch)
在这个例子中,data_loader 会自动管理从 dataset 中加载数据的复杂性,如批量加载、打乱顺序和多进程加载。
输出:
['One scoop of vanilla ice cream']
['One scoop of chocolate ice cream']
['One scoop of strawberry ice cream']
ice_cream_loader = DataLoader(ice_cream_menu,batch_size=2)
输出:
['One scoop of vanilla ice cream', 'One scoop of chocolate ice cream']
['One scoop of strawberry ice cream']
ice_cream_loader = DataLoader(ice_cream_menu,batch_size=3)#大于等于3的输出一样,因为就三个数据了
['One scoop of vanilla ice cream', 'One scoop of chocolate ice cream', 'One scoop of strawberry ice cream']
通过组合使用 Dataset 和 DataLoader,PyTorch 用户可以高效、灵活地处理大规模数据集。Dataset 提供了一个清晰的接口来访问单个数据点(__getitem__),而 DataLoader 管理整个数据集的批量处理和并行加载,这两者的结合极大地简化了在训练深度学习模型时的数据处理工作。
为了简单说明,以下我们将继承Dataset类的类,说成Dataset:
根据上述简单的例子,我们可以知道,Dataset可以用来导入数据集,并规定整个数据集的长度是如何计算的,并规定单个数据点的格式;而DataLoader配合Dataset使用,可以导入数据集,并规定该数据集划分的批次数量和批次大小,以及导入数据集时是否打乱数据等。
对于:
for batch in dataloader:
pass
为了理解batch和batch_size,可以这样去想:
假设有512个箱子,将这些箱子,每16个分成一份,一共有32份,每一份叫作一个batch,而每个batch里面一共16个箱子。每16个箱子为一批,一批一批进行拆箱,即一个batch一个batch进行处理。遍历dataloader,每次取出的是一个batch,从上面的例子可以发现,batch里面的元素是通过列表组织在一起的。
每一个batch实际上就是DataLoader将Dataset划分成的一个批次,每个batch的大小就是batch_size(除非数据集不是它的整数倍,上面也有体现)。所有batch加起来才构成整个Dataset。
如果是图片数据集,batch_size可以认为,一个batch有batch_size张图片(如果该数据集规定单个数据点是一张图片的话。)(因为DataLoader访问数据时,会按照Dataset规定的数据点规格访问)。
以上是一个简单的实例,方便理解,现在我们进行实战。
import torch
from sklearn.datasets import load_iris
from torch.utils.data import Dataset, DataLoader
# 此函数用于加载鸢尾花数据集
def load_data(shuffle=True):
x = torch.tensor(load_iris().data)
y = torch.tensor(load_iris().target)
# 数据归一化
x_min = torch.min(x, dim=0).values
x_max = torch.max(x, dim=0).values
x = (x - x_min) / (x_max - x_min)
if shuffle:
idx = torch.randperm(x.shape[0])
x = x[idx]
y = y[idx]
return x, y
# 自定义鸢尾花数据类
class IrisDataset(Dataset):
def __init__(self, mode='train', num_train=120, num_dev=15):
super(IrisDataset, self).__init__()
x, y = load_data(shuffle=True)
if mode == 'train':
self.x, self.y = x[:num_train], y[:num_train]
elif mode == 'dev':
self.x, self.y = x[num_train:num_train + num_dev], y[num_train:num_train + num_dev]
else:
self.x, self.y = x[num_train + num_dev:], y[num_train + num_dev:]
def __getitem__(self, idx):
return self.x[idx], self.y[idx]
def __len__(self):
return len(self.x)
batch_size = 16
# 分别构建训练集、验证集和测试集
train_dataset = IrisDataset(mode='train')
dev_dataset = IrisDataset(mode='dev')
test_dataset = IrisDataset(mode='test')
train_loader = DataLoader(train_dataset, batch_size=batch_size,shuffle=True)
dev_loader = DataLoader(dev_dataset, batch_size=batch_size)
test_loader = DataLoader(test_dataset, batch_size=1, shuffle=True)
这段代码涉及到使用 PyTorch 加载和处理著名的鸢尾花(Iris)数据集,并将其分成训练集、验证集和测试集。下面逐部分详细解释:
加载数据:
load_iris() 函数从 scikit-learn 库中加载鸢尾花数据集。这个函数返回包含特征(data)和目标(target)的数据结构。归一化:
打乱数据:
shuffle,则通过生成一个随机排列的索引并重新排序数据来打乱数据集。这通常用于训练数据集,以保证每次训练的随机性和泛化能力。idx = torch.randperm(x.shape[0]),x.shape[0]是二维张量的行数。 torch.randperm即随机打乱(生成一个 0 到样本数量减一的随机排列),得到一个随机排列。x = x[idx];y = y[idx],使用的是高级索引:使用多个整数索引访问多个元素IrisDataset 类继承自 Dataset。它用于封装鸢尾花数据,使其可以通过 PyTorch DataLoader 使用。mode(训练、验证或测试)来划分数据:
train): 使用数据集的前 num_train 个样本。dev): 紧随训练集之后的 num_dev 个样本。test): 剩余的样本。DataLoader 实例来进行封装。这允许以批量方式加载数据,可选择是否打乱。batch_size):