gpt4 book ai didi

python - 经过训练的机器学习模型太大

转载 作者:太空狗 更新时间:2023-10-29 22:14:59 26 4
gpt4 key购买 nike

我们已经为一些回归任务训练了一个 Extra Tree 模型。我们的模型由 3 棵额外的树组成,每棵树有 200 棵深度为 30 的树。在这 3 棵额外的树之上,我们使用岭回归。

我们对模型进行了数小时的训练,并pickled 训练后的模型(整个类对象)以备后用。但是,保存的训练好的模型太大了,大约140GB!

有没有办法减小保存模型的大小? pickle 中是否有任何可能有用的配置,或者 pickle 的任何替代方案?

最佳答案

您可以尝试使用带有压缩参数的joblib

from sklearn.externals import joblib
joblib.dump(your_algo, 'pickle_file_name.pkl', compress=3)

compress - 从 0 到 9。更高的值意味着更多的压缩,但也更慢的读写时间。使用值 3 通常是一个很好的折衷。

您可以使用 python 标准压缩模块 zlib、gzip、bz2、lzma 和 xz。要使用它,您只需指定具有特定扩展名的格式

例子:

joblib.dump(obj, 'your_filename.pkl.z')   # zlib

更多信息,请参阅 link .

关于python - 经过训练的机器学习模型太大,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43591621/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com