gpt4 book ai didi

hadoop - 在本地模式下运行oozie会出错

转载 作者:行者123 更新时间:2023-12-02 20:56:37 25 4
gpt4 key购买 nike

我正在尝试使用下面的xml运行oozie作业。但是,操作失败并显示以下错误:

Main class [org.apache.oozie.action.hadoop.SparkMain], exit code [101]



在分析日志时,我观察到错误是由于 java.lang.ClassNotFoundException:Mainclass 引起的。但是Mainclass存在于hdfs位置的jar中。该jar在下面的xml中指定。这是我的代码:
<action name="action1" cred="hive_credentials">
<spark xmlns="uri:oozie:spark-action:0.2">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<master>local[*]</master>
<name>name</name>
<class>Mainclass</class>
<jar>${jar1}</jar>
<spark-opts>
--files hive-site.xml --conf spark.yarn.security.tokens.hive.enabled=false
</spark-opts>
<arg>arg1</arg>
<file>${nameNode}/test/${wf:user()}/hive-site.xml</file>
</spark>
<ok to="end" />
<error to="kill_job" />
</action>

可能是什么问题?

最佳答案

我解决了这个问题,

1)直接在工作流xml旁边创建一个“lib”文件夹

2)将Mainclass jar复制到lib文件夹

3)仅在标记中指定jar名称,而不指定完全限定的hdfs路径

关于hadoop - 在本地模式下运行oozie会出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44365307/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com