gpt4 book ai didi

python - 访问存储在 HDFS 分布式缓存中的 python 脚本中的文件

转载 作者:太空宇宙 更新时间:2023-11-04 03:31:09 25 4
gpt4 key购买 nike

我有一个 python 脚本需要访问和查询 MaxMind (.mmdb) 文件类型。我目前的想法是将 MaxMind 文件加载到 HDFS 的分布式缓存中,然后通过 Pig 将其传递到我的 Python 脚本中。我当前的 pig 脚本是:

SET mapred.cache.file /path/filelocation/;
SET mapred.createsymlink YES;
SET mapred.cache.file hdfs://localserver:8020/pathtofile#filename;
REGISTER 'pythonscript' USING jython AS myudf;
logfile= LOAD 'filename' USING PigStorage(',') AS (x:int);
RESULT = FOREACH logfile GENERATE myudf.pyFunc(x,"how to pass in MaxMind file");

一旦将文件加载到 python 脚本中的分发缓存中,关于如何访问该文件有什么想法吗?

谢谢

最佳答案

我认为你可以这样做:

set mapred.cache.files hdfs:///user/cody.stevens/testdat//list.txt#filename;
SET mapred.createsymlink YES;
REGISTER 'my.py' USING jython AS myudf;
a = LOAD 'hdfs:///user/cody.stevens/pig.txt' as (x:chararray);
RESULT = FOREACH a GENERATE myudf.list_files(x,'filename');
STORE RESULT into '$OUTPUT';

这是我在这个例子中使用的相应的 my.py

#/usr/bin/env python 
import os

@outputSchema("ls:chararray}")
def list_files(x,f):
#ls = os.listdir('.')
fin = open(f,'rb')
return [x,fin.readlines()]


if __name__ == '__main__':
print "ok"

差点忘了..我是这样调用它的。

pig -param OUTPUT=/user/cody.stevens/pigout -f dist.pig

它应该在您的本地目录中,以便 python 应该能够访问它。在该示例中,“文件名”是符号链接(symbolic link)的名称,您必须相应地进行更新。在你的情况下,你会希望你的“文件名”成为你的 maxmind 文件,并且根据你在“a”中的值是什么,你可能需要将其更改回“as(x:int)”。

祝你好运!

关于python - 访问存储在 HDFS 分布式缓存中的 python 脚本中的文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31077929/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com