gpt4 book ai didi

tensorflow - 无法在深度学习中序列化大于 4 GiB 的字节对象

转载 作者:行者123 更新时间:2023-12-02 14:52:11 24 4
gpt4 key购买 nike

我正在使用 Google Colab 环境创建一个 Siamese 网络,使用 Keras 来验证图像。我用过this来自 GitHub 的代码。但是当我尝试运行 pickle.dump 代码时出现错误:

with open(os.path.join(save_path,"train.pickle"), "wb") as f:
pickle.dump((X,c),f)

错误信息是:

---------------------------------------------------------------------------
OverflowError Traceback (most recent call last)
<ipython-input-7-af9d0618d385> in <module>()
3
4 with open(os.path.join(save_path,"train.pickle"), "wb") as f:
----> 5 pickle.dump((X,c),f)
6
7

OverflowError: cannot serialize a bytes object larger than 4 GiB

我在这个网站上找到了一些相关的问题,但找不到有用的答案。我该如何解决这个错误?

最佳答案

使用 protocol=4 的 pickle,例如,

pickle.dump((X,c), f, protocol=4)

关于tensorflow - 无法在深度学习中序列化大于 4 GiB 的字节对象,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55086686/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com