gpt4 book ai didi

apache-spark - SPARK_SUBMIT_OPTIONS 中的 CPS 是什么?

转载 作者:行者123 更新时间:2023-12-04 01:56:27 32 4
gpt4 key购买 nike

在 AWS EMR 中 /etc/zeppelin/conf/zeppelin-env.sh , 它有这个

export SPARK_SUBMIT_OPTIONS="$SPARK_SUBMIT_OPTIONS \
--conf 'spark.executorEnv.PYTHONPATH=/usr/lib/spark/python/lib/py4j-src.zip:/usr/lib/spark/python/:<CPS>{{PWD}}/pyspark.zip<CPS>{{PWD}}/py4j-src.zip' \
--conf spark.yarn.isPython=true"

这是什么<CPS>spark.executorEnv.PYTHONPATH

最佳答案

CPS =“类路径分隔符”(例如,Linux 上的“:”和 Windows 上的“;”)

参见 https://issues.apache.org/jira/browse/YARN-6554供引用。

您看到的这个设置混合了 和“:”,这有点奇怪。真的,它可能应该使用 代替所有的 ':' 以独立于平台。但是,由于 EMR 仅支持在 AmazonLinux 上运行,因此不需要平台独立。

关于apache-spark - SPARK_SUBMIT_OPTIONS 中的 CPS 是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50259794/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com