gpt4 book ai didi

pytorch下大型数据集(大型图片)的导入方式

转载 作者:qq735679552 更新时间:2022-09-29 22:32:09 26 4
gpt4 key购买 nike

CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.

这篇CFSDN的博客文章pytorch下大型数据集(大型图片)的导入方式由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.

使用torch.utils.data.Dataset类 处理图片数据时, 。

1. 我们需要定义三个基本的函数,以下是基本流程 。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
class our_datasets(Data.Dataset):
 
   def __init__( self ,root,is_resize = False ,is_transfrom = False ):
     #这里只是个参考。按自己需求写。
     self .root = root
     self .is_resize = is_resize
     self .is_transfrom = is_transfrom
 
     self .imgs_list = ... #这里建议保存的是 图片的路径 而不是 图片的数据
     self .labs_list = ...
 
   def __getitem__( self , index):
 
     img_path,lab = self .imgs_list[index], self .labs_list[index]
    
     #这里使用PIL库读取图片数据.
     img_data = Image. open (img_path).convert( 'RGB' )
 
     #这里看自己需要,可以不要
     if self .is_resize:
       img_data = img_data.resize(( self .is_resize[ 0 ], self .is_resize[ 1 ]), Image.ANTIALIAS)
    
     #但是数据转换建议加上,很多时候都会用到
     if self .is_transfrom:
       img_data = self .is_transfrom(img_data)
     return img_data,lab
 
   def __len__( self ):
 
     return len ( self .imgs_list)

这里,我将 读取图片 的步骤 放到 __getitem__ ,是因为 这样放的话,对内存的要求会降低很多,我们只是将数据的路径导入了内存中,当需要读取这个图片数据时,再读取,这样更像是随用随取。如果将这部分放到 __init__ 里面,会一次将 图片数据都加载到 内存中,如果数据量太大,会直接卡死.

2.Dataset 类 返回的数据 类型 是与你读取时的类型一致的。但是在 pytorch使用时,会提示 。

?
1
TypeError: batch must contain tensors, numbers, dicts or lists; found < class 'PIL.Image.Image' >

通常,在数据了不大时,我一般都是在 读取数据后 加一句,转换成 numpy.array类型.

但是,在处理较大型的数据时,这样会很慢.

这时候,我建议 直接使用 torchvision来进行数据转换.

?
1
is_transfrom = torchvision.transforms.ToTensor()

将 上例代码 加入 Dataset类中,这样就会快很多.

以上这篇pytorch下大型数据集(大型图片)的导入方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我.

原文链接:https://blog.csdn.net/qq_36285997/article/details/82463959 。

最后此篇关于pytorch下大型数据集(大型图片)的导入方式的文章就讲到这里了,如果你想了解更多关于pytorch下大型数据集(大型图片)的导入方式的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com