gpt4 book ai didi

apache-spark - Spark 安装 : spark-2. 0.0-bin-hadoop2.7/lib/spark-assembly-*.jar: 没有那个文件或目录

转载 作者:行者123 更新时间:2023-12-01 13:42:00 27 4
gpt4 key购买 nike

你能指导我在我的本地机器上升级我的 spark 版本吗?我想在 hadoop 2.7 上运行 hive 1.2.1(mysql 中的 metastore)。

我使用的是旧的 spark 1.5 版,想升级到较新的 2.0 版。我已经下载了二进制文件“spark-2.0.0-bin-hadoop2.7.tgz”并对其进行了压缩。

我在spark-env中添加了- HADOOP_HOME, HADOOP_CONF_DIRSPARK_CLASSPATH 指向 mysql-connector jar 文件。在 spark-default 中添加了 spark.sql.warehouse.dirspark.sql.hive.metastore.versionspark.sql.hive.metastore.jars.

我已经修改了.bashrc 文件。当我启动配置单元时,我收到以下消息:

cannot access /opt/spark-2.0.0-bin-hadoop2.7/lib/spark-assembly-*.jar: 
No such file or directory

自二进制版本以来,我没有构建 spark。但是,我的旧版本有 spark-assembly jar 文件,但在 spark2.0 jar 目录中不能相同。我需要这个 jar 文件吗?

我已将 `hive-site.xml 复制到 conf 目录。此外,在 pyspark 中运行 sql 查询会引发以下错误:

Database at /home/revathy/metastore_db has an incompatible 
format with the current version of the software. The database
was created by or upgraded by version 10.11.

我的 Metastore 版本是 1.2.1(并且在 spark-default 中指定)

无法找到有关在 spark 2.0 上连接 hive metastore 的详细信息
有人可以帮忙吗。从 pyspark,我能够读取 hadoop 中的文件,并且 Hive 工作正常(在 cli 中检查)。

请提供有关在 spark 上配置 hive metastore(mysql) 的链接/详细信息。

最佳答案

$HIVE_HOME/bin/hive 

注释如下

# add Spark assembly jar to the classpath
#if [[ -n "$SPARK_HOME" ]]
#then
# sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`
# CLASSPATH="${CLASSPATH}:${sparkAssemblyPath}"
#fi

到此为止。

关于apache-spark - Spark 安装 : spark-2. 0.0-bin-hadoop2.7/lib/spark-assembly-*.jar: 没有那个文件或目录,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39254865/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com