gpt4 book ai didi

python - 如何序列化 pyspark 管道对象?

转载 作者:太空狗 更新时间:2023-10-30 01:27:50 25 4
gpt4 key购买 nike

我正在尝试序列化 PySpark Pipeline 对象,以便以后可以保存和检索它。尝试使用 Python pickle 库以及 PySpark 的 PickleSerializerdumps() 调用本身失败。

在使用 native pickle 库时提供代码片段。

pipeline = Pipeline(stages=[tokenizer, hashingTF, lr])
with open ('myfile', 'wb') as f:
pickle.dump(pipeline,f,2)
with open ('myfile', 'rb') as f:
pipeline1 = pickle.load(f)

运行时出现以下错误:

py4j.protocol.Py4JError: An error occurred while calling o32.__getnewargs__. Trace:
py4j.Py4JException: Method __getnewargs__([]) does not exist
at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:335)
at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:344)
at py4j.Gateway.invoke(Gateway.java:252)
at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:133)
at py4j.commands.CallCommand.execute(CallCommand.java:79)
at py4j.GatewayConnection.run(GatewayConnection.java:209)
at java.lang.Thread.run(Thread.java:785)

是否可以序列化 PySpark Pipeline 对象?

最佳答案

从技术上讲,您可以轻松地 pickle Pipeline 对象:

from pyspark.ml.pipeline import Pipeline
import pickle

pickle.dumps(Pipeline(stages=[]))
## b'\x80\x03cpyspark.ml.pipeline\nPipeline\nq ...

您不能 pickle 的是 Spark TransformersEstimators,它们只是 JVM 对象的薄包装器。如果你真的需要这个,你可以把它包装在一个函数中,例如:

def make_pipeline():
return Pipeline(stages=[Tokenizer(inputCol="text", outputCol="words")])

pickle.dumps(make_pipeline)
## b'\x80\x03c__ ...

但由于它只是一段代码并且不存储任何持久数据,所以它看起来并不是特别有用。

关于python - 如何序列化 pyspark 管道对象?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36650561/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com