gpt4 book ai didi

apache-spark - Spark : Association with remote system lost akka. tcp(解除关联)

转载 作者:行者123 更新时间:2023-12-04 05:05:53 25 4
gpt4 key购买 nike

我正在将 Spark 1.3.0 与 Hadoop/Yarn 一起使用,我收到一条错误消息,内容为

WARN ReliableDeliverySupervisor: Association with remote system [akka.tcp://sparkYarnAM@virtm2:51482] has failed, address is now gated for [5000] ms. Reason is: [Disassociated].

看了下发现把akka心跳间隔设置为100就可以解决这个问题:

SparkConf conf = new SparkConf().setAppName("Name");
conf.set("spark.akka.heartbeat.interval", "100");

不幸的是,我的情况并非如此。几秒钟后,我按回车键,作业失败并出现此错误。

我用这个命令提交作业:

/usr/local/spark130/bin/spark-submit 
--class de.unidue.langTecspark.TweetTag
--master yarn-client
--executor-memory 2g
--driver-memory 4g
/home/huser/sparkIt-1.0-standalone.jar

节点上执行容器的日志说 Application master 被杀死

5 ERROR yarn.ApplicationMaster: RECEIVED SIGNAL 15: SIGTERM

我试图让一个最小的例子运行,这个(它什么都不做..只是为了看看它是否有同样的问题。):

public static void main(String [] args){
SparkConf conf = new SparkConf().setAppName("Minimal");
JavaSparkContext sc = new JavaSparkContext(conf);
List<Integer> data = Arrays.asList(1, 2, 3, 4, 5);
JavaRDD<Integer> distData = sc.parallelize(data);
sc.close();
}

我再次进入日志,Applicationmaster killed 错误。这里出现的任何问题都与内存无关,但我很难追踪这个问题。

我有一个小型分布式设置,其中有 4 台机器用于数据/处理,1 台用于名称节点。

非常感谢任何帮助!

最佳答案

当master和slave没有正常启动时会出现这个问题。使用 ./sbin/start-all.sh 启动主从,然后提交您的申请。

关于apache-spark - Spark : Association with remote system lost akka. tcp(解除关联),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29679329/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com