gpt4 book ai didi

java - 从 Spark 类路径中删除 Jars

转载 作者:可可西里 更新时间:2023-11-01 14:49:02 32 4
gpt4 key购买 nike

我正在使用 ElasticSearch Spark Jar。但出于某种原因,当我启动我的 sparkcontext 时,它还会从

/usr/lib/hive/lib/elasticsearch-hadoop-hive-2.1.0.jar

这会导致两者发生冲突的 elasticrdd 问题。

有谁知道那个 Jar 是如何进入 Spark 的,以及我如何最好在启动上下文之前将它从 spark 类路径中删除?

谢谢。

最佳答案

事实证明,这是加载该目录的 conf/spark-env.sh 中的默认配置。这很容易通过加载一个不同的文件夹来解决,其中包含您想要的 jar 而不是您不想要的。所以不是这个:

SPARK_DIST_CLASSPATH="$SPARK_DIST_CLASSPATH:/usr/lib/hive/lib/*"

这会起作用:

SPARK_DIST_CLASSPATH="$SPARK_DIST_CLASSPATH:/usr/lib/hive/lib/spark/*"

假设您将相关的 jar 复制到该文件夹​​中

关于java - 从 Spark 类路径中删除 Jars,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34228750/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com