gpt4 book ai didi

python - 从 pyspark session 中获取 hive 和 hadoop 版本

转载 作者:行者123 更新时间:2023-12-01 06:24:30 25 4
gpt4 key购买 nike

我正在带有 hive 的 hadoop 集群上使用 pyspark。我知道可以从命令行获取 Spark、Hive 和 hadoop 版本(spark-submit --versionhive --versionhadoop version )但是我如何在 pyspark 中做同样的事情?

获取 Spark 版本非常简单:

print("Spark version = ".format(spark._sc.version))

但我不知道如何获取 hive 和 hadoop 版本。有人知道吗? TIA

最佳答案

从 pyspark 获取它们:

# spark
print(f"Spark version = {spark.version}")

# hadoop
print(f"Hadoop version = {sc._jvm.org.apache.hadoop.util.VersionInfo.getVersion()}")

关于python - 从 pyspark session 中获取 hive 和 hadoop 版本,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60228286/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com