gpt4 book ai didi

python - 如何使用 Python pickle 将文件转储到 Hadoop HDFS 目录?

转载 作者:可可西里 更新时间:2023-11-01 14:23:16 25 4
gpt4 key购买 nike

我在包含我的 Python (2.7) 类的目录中的 VM 上。我正在尝试将我的类的一个实例 pickle 到我的 HDFS 中的一个目录。

我正在尝试按照以下方式做一些事情:

import pickle

my_obj = MyClass() # the class instance that I want to pickle

with open('hdfs://domain.example.com/path/to/directory/') as hdfs_loc:
pickle.dump(my_obj, hdfs_loc)

根据我所做的研究,我认为类似于 snakebite可能会有所帮助...但是有人有更具体的建议吗?

最佳答案

如果您使用 PySpark,那么您可以使用 saveAsPickleFile 方法:

temp_rdd = sc.parallelize(my_obj)
temp_rdd.coalesce(1).saveAsPickleFile("/test/tmp/data/destination.pickle")

关于python - 如何使用 Python pickle 将文件转储到 Hadoop HDFS 目录?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45338212/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com