gpt4 book ai didi

apache-spark - 如何在 spark 2.1.0 中提交 python 文件?

转载 作者:行者123 更新时间:2023-12-04 17:07:25 27 4
gpt4 key购买 nike

我目前正在运行 spark 2.1.0。我大部分时间都在 PYSPARK shell 中工作,但我需要 spark-submit 一个 python 文件(类似于 java 中的 spark-submit jar)。你如何在python中做到这一点?

最佳答案

python 文件.py

from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("appName").getOrCreate()
sc = spark.sparkContext
rdd = sc.parallelize([1,2,3,4,5,6,7])
print(rdd.count())

使用您想要的配置运行上述程序:例如:
 YOUR_SPARK_HOME/bin/spark-submit --master yourSparkMaster --num-executors 20 \
--executor-memory 1G --executor-cores 2 --driver-memory 1G \
pythonfile.py

这些选项不是强制性的。你甚至可以像
YOUR_SPARK_HOME/bin/spark-submit --master sparkMaster/local pythonfile.py

关于apache-spark - 如何在 spark 2.1.0 中提交 python 文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42974134/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com