gpt4 book ai didi

python - 在数组中导入数据集时,谷歌 Colab 中的 ram 用完了

转载 作者:行者123 更新时间:2023-12-04 07:41:18 24 4
gpt4 key购买 nike

我想在一个数组中存储大约 2400 张大小为 2000**2000*3 的图像来馈送卷积神经网络。但是,由于内存不足,Google Colab session 不断崩溃。
我导入图像数据集的代码:

Train_data = []
for img in sorted(glob.glob("path/*.jpg")):
image= mpimg.imread(img)
image=np.array(image , dtype='float32')
image /= 255.
Train_data.append(image)
Train_data = np.array(Train_data)

最佳答案

有两种可能的方法可以避免 RAM 错误:
第一个选项:将图像调整为较小的尺寸

import cv2

Train_data = []
for img in sorted(glob.glob("path/*.jpg")):
image= mpimg.imread(img)
image=np.array(image , dtype='float32')
image = cv2.resize(image, (150,150))
image /= 255.
Train_data.append(image)
Train_data = np.array(Train_data)
第二种选择:您可以使用比迭代器消耗更少内存的生成器,因为它不存储整个列表。
Train_data = []

def gen_images():
for img in sorted(glob.glob("path/*.jpg")):
image= mpimg.imread(img)
image=np.array(image , dtype='float32')
image /= 255.
yield image

for image in gen_images():
Train_data.append(image)

关于python - 在数组中导入数据集时,谷歌 Colab 中的 ram 用完了,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67446019/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com