gpt4 book ai didi

apache-spark - 列出 pyspark 中加载的所有其他 jar

转载 作者:行者123 更新时间:2023-12-04 11:36:48 25 4
gpt4 key购买 nike

我想看看我的 spark 上下文正在使用的 jar 。
我在 Scala 中找到了代码:

$ spark-shell --jars --master=spark://datasci:7077 --jars /opt/jars/xgboost4j-spark-0.7-jar-with-dependencies.jar --packages elsevierlabs-os:spark-xml-utils:1.6.0

scala> spark.sparkContext.listJars.foreach(println)
spark://datasci:42661/jars/net.sf.saxon_Saxon-HE-9.6.0-7.jar
spark://datasci:42661/jars/elsevierlabs-os_spark-xml-utils-1.6.0.jar
spark://datasci:42661/jars/org.apache.commons_commons-lang3-3.4.jar
spark://datasci:42661/jars/commons-logging_commons-logging-1.2.jar
spark://datasci:42661/jars/xgboost4j-spark-0.7-jar-with-dependencies.jar
spark://datasci:42661/jars/commons-io_commons-io-2.4.jar
来源: List All Additional Jars Loaded in Spark
但我找不到如何在 PySpark 中做到这一点。
有什么建议?
谢谢

最佳答案

sparkContext._jsc.sc().listJars()
_jsc是java spark上下文

关于apache-spark - 列出 pyspark 中加载的所有其他 jar,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57057648/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com