gpt4 book ai didi

apache-spark - 将 pyspark 脚本提交到远程 Spark 服务器?

转载 作者:行者123 更新时间:2023-12-04 04:58:55 34 4
gpt4 key购买 nike

这可能是一个非常愚蠢的问题,但我无法通过 Google 找到答案。我编写了一个简单的 pyspark ETL 脚本,该脚本读取 CSV 并将其写入 Parquet,如下所示:

spark = SparkSession.builder.getOrCreate()
sqlContext = SQLContext(spark.sparkContext)
df = sqlContext.read.csv(input_filename)
df.write.parquet(output_path)

为了运行它,我在 Docker 中启动了一个本地 Spark 集群:
$ docker run --network=host jupyter/pyspark-notebook

我运行 Python 脚本,它连接到这个本地 Spark 集群,一切都按预期工作。

现在我想在远程 Spark 集群 (AWS EMR) 上运行相同的脚本。我可以在初始化 Spark 上下文时在某处指定一个远程 IP 地址吗?还是我误解了 Spark 的工作原理?

最佳答案

您可以通过指定远程主机的 IP 地址来创建 spark session 。

spark = SparkSession.builder.master("spark://<ip>:<port>").getOrCreate()

对于 AWS EMR,不支持独立模式。您需要在客户端或集群模式下使用 yarn,并将 HADOOP_CONF_DIR 指向本地服务器上的某个位置,其中/etc/hadoop/conf 中的所有文件都存在。然后设置动态端口转发以连接到 EMR 集群。创建一个 Spark session ,如:
spark = SparkSession.builder.master('yarn').config('spark.submit.deployMode', 'cluster').getOrCreate()

引用 https://aws.amazon.com/premiumsupport/knowledge-center/emr-submit-spark-job-remote-cluster/

关于apache-spark - 将 pyspark 脚本提交到远程 Spark 服务器?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54641574/

34 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com