gpt4 book ai didi

hadoop - 我可以在ozie中将py spark作为shell工作运行吗?

转载 作者:行者123 更新时间:2023-12-02 20:53:40 25 4
gpt4 key购买 nike

我有可以通过spark-submit运行的python脚本。我需要在Oozie中使用它。

<!-- move files from local disk to hdfs -->
<action name="forceLoadFromLocal2hdfs">
<shell xmlns="uri:oozie:shell-action:0.3">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<configuration>
<property>
<name>mapred.job.queue.name</name>
<value>${queueName}</value>
</property>
</configuration>
<exec>driver-script.sh</exec>
<!-- single -->
<argument>s</argument>
<!-- py script -->
<argument>load_local_2_hdfs.py</argument>
<!-- local file to be moved-->
<argument>localPathFile</argument>
<!-- hdfs destination folder, be aware of, script is deleting existing folder! -->
<argument>hdfFolder</argument>
<file>${workflowRoot}driver-script.sh#driver-script.sh</file>
<file>${workflowRoot}load_local_2_hdfs.py#load_local_2_hdfs.py</file>
</shell>
<ok to="end"/>
<error to="killAction"/>
</action>

脚本本身通过driver-script.sh运行良好。通过oozie,即使工作流程的状态为SUCCEEDED,文件也不会复制到hdfs。我找不到任何错误日志或与pyspark作业相关的日志。

我还有一个关于oozie here禁止Spark记录日志的主题

最佳答案

在开始时将脚本设置为set -x,这将向您显示脚本的哪一行。您可以在stderr中看到它们。

您能否详细说明未复制文件的含义?为您提供更好的帮助。

关于hadoop - 我可以在ozie中将py spark作为shell工作运行吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45325307/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com