gpt4 book ai didi

python - 尝试实现超分辨率模型时出现内存不足错误

转载 作者:行者123 更新时间:2023-11-30 09:04:51 26 4
gpt4 key购买 nike

我想了解如何使用卷积神经网络生成高分辨率的低分辨率图像。

是否需要网络上输入较小的图像,而输出是大小两倍的图像?

我制作了以下模型:

w,h,c=x_train[0].shape


input = Input(shape=(w,h,c),name='LR')
x = UpSampling2D(size=(2,2), name='UP')(input)
h = Dense(720, activation='relu', name ='hide')(x)
h2= Dense(1280, activation='relu', name ='hide2')(h)
output= Dense(3, activation='relu', name ='output')(h2)


model = Model(inputs=input, outputs=output)
model.compile(loss='mse', optimizer='adam', metrics=['accuracy'])
model.fit(x_train,y_train, epochs=50, verbose=0)

Y_train 的大小是 x_train 的两倍。

但我收到以下错误消息:

ResourceExhaustedError: OOM when allocating tensor with shape[4608000,720] and type float on /job:localhost/replica:0/task:0/device:CPU:0 by allocator cpu
[[{{node hide/MatMul}}]]
Hint: If you want to see a list of allocated tensors when OOM happens, add report_tensor_allocations_upon_oom to RunOptions for current allocation info

我做错了什么?

最佳答案

此类内存不足 (OOM) 错误是大批量大小的典型情况,根本无法装入您的内存。

I did model.fit(x_train,y_train,batch_size=1024, epochs=50, verbose=0) and the result is exceeded 10% of system memory.

1024 听起来太大了。开始时(例如 ~ 64),然后逐渐增加 2 的幂(例如 128、256...),直到获得足够大的批量大小,仍然可以放入您的内存。 p>

How to calculate optimal batch size中的一般性讨论可能也会有帮助...

关于python - 尝试实现超分辨率模型时出现内存不足错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55002690/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com