Pytorch中DataLoader和Dataset的基本用法
文章目录
DataLoader支持的两种数据集
- Map格式:即key,value形式,例如 {0: '张三', 1: '李四'}
- Iterator格式:例如数组,迭代器等
Iterator格式的DataLoader
Python中,只要可以for循环的数据,都是Iterator格式的数据。
Python的Iterator格式数据简介
```python data = [0,1,2,3,4] for item in data: print(item, end=' ') ```
``` 0 1 2 3 4 ```
上例子中,list
数据类型是一个迭代器,for循环本质是每次调用了next函数。即其“效果”等价于下面的代码:
```python data = [0,1,2,3,4] data_iter = iter(data) # 返回一个迭代器 item = next(data_iter, None) # 获取迭代器的下一个值 while item is not None: print(item, end=' ') item = next(data_iter, None) ```
``` 0 1 2 3 4 ```
Pytorch使用DataLoader
```python from torch.utils.data import DataLoader data = [i for i in range(100)] # 定义数据集,需要是一个可迭代的对象 """ 定义dataloader,其接受三个重要的参数 - dataset: 数据集 - batch_size: 要将数据集切分为多少份 - shuffle: 是否对数据集进行随机排序 """ dataloader = DataLoader(dataset=data, batch_size=6, shuffle=False) for i, item in enumerate(dataloader): # 迭代输出 print(i, item) ```
``` 0 tensor([0, 1, 2, 3, 4, 5]) 1 tensor([ 6, 7, 8, 9, 10, 11]) ... 省略 15 tensor([90, 91, 92, 93, 94, 95]) 16 tensor([96, 97, 98, 99]) ```
上面例子中,输入一个数据集0~99
,通过dataloader
将数据集分成100/6 =17份,每份6个数据,最后一份因为不满6个,所以只返回了4个。
使用自定义的IterableDataset
```python from torch.utils.data import DataLoader from torch.utils.data import IterableDataset class MyDataset(IterableDataset): def __init__(self): print('init...') def __iter__(self): print('iter...') # 获取迭代器 self.n = 1 return self def __next__(self): print('next...') # 获取下一个元素 x = self.n self.n += 1 if x >= 100: # 当x到100时停止 raise StopIteration return x dataloader = DataLoader(MyDataset(), batch_size=5) for i, item in enumerate(dataloader): print(i, item) ```
``` init... iter... next... next... next... next... next... 0 tensor([1, 2, 3, 4, 5]) next... next... next... next... next... 1 tensor([ 6, 7, 8, 9, 10]) ... 省略 next... next... next... next... next... 18 tensor([91, 92, 93, 94, 95]) next... next... next... next... next... 19 tensor([96, 97, 98, 99]) ```
从上面的例子可以看出,可迭代对象在初始化中会调用一次__init__
方法,在获取迭代器时会调用一次__iter__
方法,之后在获取元素时,每获取一个元素都会调用一次__next__
方法
实战:自定义图片加载DataLoader
任务:从data\faces文件夹中读取图片,并做一定处理,然后通过dataloader加载。
``` 数据集: 链接:https://pan.baidu.com/s/1UrygNmmfzcWdjb29JHEpFg 提取码:toyd ```
1.定义ImageDataset
```python import os from torch.utils.data import IterableDataset import torchvision import torchvision.transforms as transforms class ImageDataset(IterableDataset): def __init__(self, filepath): fnames = [filepath + '/' + filename for filename in os.listdir(filepath)] # 读取所有图片的文件路径 self.i = -1 # 记录当前读取到的图片的下标 self.compose = compose = [ # 图片的transform transforms.ToPILImage(), transforms.Resize((64, 64)), transforms.ToTensor(), transforms.Normalize(mean=(0.5, 0.5, 0.5), std=(0.5, 0.5, 0.5)), ] def __len__(self): return len(fnames) # 假设文件夹没有其他无关文件 def __iter__(self): return self def __next__(self): self.i += 1 if self.i >= len(self.fnames): raise StopIteration img = torchvision.io.read_image(fnames[self.i]) # 读取第i个图片 transform = transforms.Compose(self.compose) # 对图片进行处理 return transform(img) # 返回处理后的图片 ```
2.实例化dataset和dataloader
```python dataset = ImageDataset('./data/faces') print(next(iter(dataset)).shape) dataloader = DataLoader(dataset, batch_size=16) print(dataloader) ```
``` torch.Size([3, 64, 64]) <torch.utils.data.dataloader.DataLoader object at 0x000001C10B6048E0> ```
3.使用dataloader
```python import matplotlib.pyplot as plt grid_img = torchvision.utils.make_grid(next(iter(dataloader)), nrow=4) plt.figure(figsize=(10,10)) plt.imshow(grid_img.permute(1, 2, 0)) plt.show() ```
Map格式的DataLoader
```python dataset = {0: '张三', 1:'李四', 2:'王五', 3:'赵六'} dataloader = DataLoader(dataset, batch_size=2) for i, value in enumerate(dataloader): print(i, value) ```
``` 0 ['张三', '李四'] 1 ['王五', '赵六'] ```
自定义Map类型的Dataset
自定义Map类型的Dataset只需要定义类,并继承 torch.utils.data.Dataset
方法即可,但要实现两个重要方法:__getitem__(self, index)
和 __len__(self)
个人比较推荐使用这种Dataset
例如:
```python from torch.utils.data import Dataset from torch.utils.data import DataLoader class CustomerDataSet(Dataset): def __init__(self): super(CustomerDataSet, self).__init__() self.data_dict = ['张三', '李四', '王五', '赵六'] def __getitem__(self, index): return self.data_dict[index] def __len__(self): return len(self.data_dict) ```
其实这和上面的dict
有异曲同工之妙,Dataloader会根据你dataset的大小,然后传一个index (0<=index<len(dataset)) 给getitem
方法,然后你返回该index对应的数据即可。例如:
```python from torch.utils.data import DataLoader
dataloader = DataLoader(CustomerDataSet(), batch_size=2, shuffle=True) for i, value in enumerate(dataloader): print(i, value) ``` 输出:
``` 0 ['李四', '张三'] 1 ['王五', '赵六'] ```
在上面例子中,Dataloader的执行过程为:
- 调用
len(dataset)
方法,获取dataset的长度,这里为 4 - 然后生成 index list,即 [0,1,2,3]
- 因为传了
shuffle=True
,所以将index顺序打乱,结果为:[1,0,2,3] - 然后按照顺序调用
getitem
方法,即:getitem(1)
、getitem(0)
、getitem(2)
、getitem(3)
- 根据batch_size进行返回,第一次返回两个
getitem(1)
、getitem(0)
,第二次返回getitem(2)
、getitem(3)
上述的Dataloader执行过程只是为了方便大家理解,但具体源码是不是这样我也不清楚
参考资料
官方文档:https://pytorch.org/docs/stable/data.html
官方文档:https://pytorch.org/tutorials/beginner/basics/data_tutorial.html