- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
我在 yarn-cluster 上使用 spark-submit 运行我的 spark 流应用程序。当我在本地模式下运行它时,它工作正常。但是当我尝试使用 spark-submit 在 yarn-cluster 上运行它时,它会运行一段时间然后退出并执行以下操作。
Diagnostics: Exception from container-launch.
Container id: container_1435576266959_1208_02_000002
Exit code: 13
Stack trace: ExitCodeException exitCode=13:
at org.apache.hadoop.util.Shell.runCommand(Shell.java:538)
at org.apache.hadoop.util.Shell.run(Shell.java:455)
at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:715)
at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:212)
at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302)
at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82)
at java.util.concurrent.FutureTask.run(FutureTask.java:262)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:745)
我们将不胜感激。
最佳答案
我得到了解决方案。
在我的 Spark Streaming 应用程序中,我设置了 SparkConf.setMaster("local[*]") 并在 spark-submit 中提供了 --master yarn-cluster。
所以两个master都发生了冲突,一直停留在ACCEPTED状态退出。
关于java - SparkStreaming - ExitCodeException exitCode=13,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33013975/
我不断收到此错误,我尝试执行了很多次。它显示相同的错误,并重新执行自身大约两次,然后退出 最佳答案 似乎在远程运行作业时,yarn.application.classpath必须在配置中,否则作业将失
我在 Solaris 10 服务器上配置了 hadoop。我已经在此服务器上配置了 Hadoop 2.7.1。现在,当我使用 start-dfs.sh datanode 启动 hadoop 守护进程时
我在运行一个简单的 YARN 应用程序时遇到以下异常,我如何才能获得更多信息来调试该问题? Oct 14, 2014 12:29:19 PM dz.lab.yarn.simple.handler.RM
我一直在努力适应新的结构化流式传输,但在我开始 .writeStream 查询时,它总是给我以下错误。 知道是什么原因造成的吗?如果您在本地和 HDFS 之间拆分检查点和元数据文件夹,我能找到的最接近
我在 yarn-cluster 上使用 spark-submit 运行我的 spark 流应用程序。当我在本地模式下运行它时,它工作正常。但是当我尝试使用 spark-submit 在 yarn-cl
我在盯着 hadoop 守护进程时遇到了一些错误。我在 Solaris 10 服务器上配置了 Hadoop 2.7.1。当我执行 start-dfs.sh 并使用 jps 检查时,它仅显示 datan
我正在尝试运行需要共享库(.so 文件)的 MapReduce 作业。如果我使用独立 Java 程序中的共享库,我根本没有问题(该程序使用 java.library.path 来查找库),但是如果我尝
我正在尝试使用 Hadoop Streaming 在 Hadoop 集群上运行 python 脚本以进行情绪分析。我在本地机器上运行的相同脚本正常运行并提供输出。 要在本地机器上运行,我使用此命令。
问题的标题是我在 Windows 10 上安装 Hadoop-2.9.1 时遇到的异常。经过几周的研究,我无法找到标题查询的答案。 根据我遇到的异常,hadoop 进程正在 Data 目录中寻找权限,
我是一名优秀的程序员,十分优秀!