gpt4 book ai didi

python - 我可以在提交 spark 作业时向 python 代码添加参数吗?

转载 作者:IT老高 更新时间:2023-10-28 22:17:18 25 4
gpt4 key购买 nike

我正在尝试使用 spark-submit 在 spark 集群中执行我的 python 代码。

通常我们使用如下 python 代码运行 spark-submit

# Run a Python application on a cluster
./bin/spark-submit \
--master spark://207.184.161.138:7077 \
my_python_code.py \
1000

但我想通过传递几个参数来运行 my_python_code.py 有没有聪明的方法来传递参数?

最佳答案

尽管 sys.argv 是一个很好的解决方案,但我仍然更喜欢这种在我的 PySpark 作业中处理行命令 args 的更合适的方法:

import argparse

parser = argparse.ArgumentParser()
parser.add_argument("--ngrams", help="some useful description.")
args = parser.parse_args()
if args.ngrams:
ngrams = args.ngrams

这样,您可以按如下方式启动您的工作:

spark-submit job.py --ngrams 3

关于argparse 模块的更多信息可以在Argparse Tutorial 中找到。

关于python - 我可以在提交 spark 作业时向 python 代码添加参数吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32217160/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com