- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
当在超过一定数据大小(~2,5gb)的集群上运行sparkJob时,我收到“作业被取消,因为SparkContext被关闭”或“执行程序丢失”。当查看yarn gui时,我发现被杀死的工作是成功的。运行500mb的数据没有问题。我正在寻找解决方案并发现: - “似乎 yarn 杀死了一些执行器,因为它们请求的内存比预期更多。”
有什么建议如何调试吗?
命令我提交我的 Spark 作业:
/opt/spark-1.5.0-bin-hadoop2.4/bin/spark-submit --driver-memory 22g --driver-cores 4 --num-executors 15 --executor-memory 6g --executor-cores 6 --class sparkTesting.Runner --master yarn-client myJar.jar jarArguments
和sparkContext设置
val sparkConf = (new SparkConf()
.set("spark.driver.maxResultSize", "21g")
.set("spark.akka.frameSize", "2011")
.set("spark.eventLog.enabled", "true")
.set("spark.eventLog.enabled", "true")
.set("spark.eventLog.dir", configVar.sparkLogDir)
)
失败的简化代码看起来像这样
val hc = new org.apache.spark.sql.hive.HiveContext(sc)
val broadcastParser = sc.broadcast(new Parser())
val featuresRdd = hc.sql("select "+ configVar.columnName + " from " + configVar.Table +" ORDER BY RAND() LIMIT " + configVar.Articles)
val myRdd : org.apache.spark.rdd.RDD[String] = featuresRdd.map(doSomething(_,broadcastParser))
val allWords= featuresRdd
.flatMap(line => line.split(" "))
.count
val wordQuantiles= featuresRdd
.flatMap(line => line.split(" "))
.map(word => (word, 1))
.reduceByKey(_ + _)
.map(pair => (pair._2 , pair._2))
.reduceByKey(_+_)
.sortBy(_._1)
.collect
.scanLeft((0,0.0)) ( (res,add) => (add._1, res._2+add._2) )
.map(entry => (entry._1,entry._2/allWords))
val dictionary = featuresRdd
.flatMap(line => line.split(" "))
.map(word => (word, 1))
.reduceByKey(_ + _) // here I have Rdd of word,count tuples
.filter(_._2 >= moreThan)
.filter(_._2 <= lessThan)
.filter(_._1.trim!=(""))
.map(_._1)
.zipWithIndex
.collect
.toMap
和错误堆栈
Exception in thread "main" org.apache.spark.SparkException: Job cancelled because SparkContext was shut down
at org.apache.spark.scheduler.DAGScheduler$$anonfun$cleanUpAfterSchedulerStop$1.apply(DAGScheduler.scala:703)
at org.apache.spark.scheduler.DAGScheduler$$anonfun$cleanUpAfterSchedulerStop$1.apply(DAGScheduler.scala:702)
at scala.collection.mutable.HashSet.foreach(HashSet.scala:79)
at org.apache.spark.scheduler.DAGScheduler.cleanUpAfterSchedulerStop(DAGScheduler.scala:702)
at org.apache.spark.scheduler.DAGSchedulerEventProcessLoop.onStop(DAGScheduler.scala:1511)
at org.apache.spark.util.EventLoop.stop(EventLoop.scala:84)
at org.apache.spark.scheduler.DAGScheduler.stop(DAGScheduler.scala:1435)
at org.apache.spark.SparkContext$$anonfun$stop$7.apply$mcV$sp(SparkContext.scala:1715)
at org.apache.spark.util.Utils$.tryLogNonFatalError(Utils.scala:1185)
at org.apache.spark.SparkContext.stop(SparkContext.scala:1714)
at org.apache.spark.scheduler.cluster.YarnClientSchedulerBackend$MonitorThread.run(YarnClientSchedulerBackend.scala:146)
at org.apache.spark.scheduler.DAGScheduler.runJob(DAGScheduler.scala:567)
at org.apache.spark.SparkContext.runJob(SparkContext.scala:1813)
at org.apache.spark.SparkContext.runJob(SparkContext.scala:1826)
at org.apache.spark.SparkContext.runJob(SparkContext.scala:1839)
at org.apache.spark.SparkContext.runJob(SparkContext.scala:1910)
at org.apache.spark.rdd.RDD.count(RDD.scala:1121)
at sparkTesting.InputGenerationAndDictionaryComputations$.createDictionary(InputGenerationAndDictionaryComputations.scala:50)
at sparkTesting.Runner$.main(Runner.scala:133)
at sparkTesting.Runner.main(Runner.scala)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:483)
at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:672)
at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:180)
at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:205)
at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:120)
at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
最佳答案
找到答案了。
我的表被保存为 20gb avro 文件。当执行者试图打开它时。他们每个人都必须将 20GB 加载到内存中。通过使用 csv 而不是 avro 解决了这个问题
关于scala - 在大型数据集上运行 Spark 时出现 "sparkContext was shut down",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32822948/
有些更新会放置一个小盾牌,指示计算机需要重新启动。那个盾牌是注册表项吗?我认为这是关键: HKLM\System\CurrentControlSet\Control\Session Manager\P
我厌倦了启动主管,但出现错误。有人可以帮忙吗?谢谢 /etc/init.d/supervisord 文件。 SUPERVISORD=/usr/local/bin/supervisord SUPERVI
我最近经常遇到这个问题,但我找不到任何解决方案。 我经常收到 Shutting down VM 并且 logcat 没有显示此问题的任何痕迹。 06-08 20:34:25.288 20416-20
我的 android studio 中的模拟器一直显示“正在关闭”。我尝试关闭它并再次运行,重新启动我的 mac,但没有任何效果,每次运行它时,它再次显示“正在关闭”。即使我可以看到下面运行的 Act
我有一个简单的 4 台服务器设置,运行 jMeter(3 个从站,1 个主站): 从站 1:10.135.62.18 运行 ./jmeter-server -Djava.rmi.server.host
我目前正在使用 JavaFX 开发 Java 应用程序。来自程序的窗口将作为低分辨率 LED 屏幕上的流。我需要的是完全关闭窗口内所有文本(标签文本、文本区域等)的抗锯齿功能。 我用谷歌搜索了几次,尝
MyApplication 静默终止。它打印的最后一件事是来自某个函数的跟踪日志,然后 Vm 关闭而不引用我的应用程序。 这是日志 fragment 05-17 15:25:28.294 4385
我已经创建了无障碍服务,我想调用 OnAccessibilityEvent()仅当“关机”菜单出现时,我的目标是调用 TTS 引擎,以便仅当屏幕上出现此菜单时才让手机通话。 我需要了解的是如何检测这唯
嘿,所以我正在制作一个序列化函数,它采用基类指针 'Joint',提取 union 后代的 'type',然后 想要实例化正确类型的“定义”,基于指针实际指向的任何类型的“关节”。 但是我仍然收到关于
我正在尝试连接到服务器并打印响应。 奇怪的是,当我点击 Activity 中启动连接的按钮时, 它会立即强制关闭。 查看 logcat 后,我看到 VM 正在关闭。 我确实看到似乎有人看到了与我类似的
我想知道 - 当我写了一段代码,最多可以更新 10,000 行并且可能需要几秒钟才能完成时,如果通过 ajax 请求访问文件时,post 查询是否发送到 php 文件,然后浏览器关闭,文件是否得到完全
是的,还有其他问题非常相似。但是,此错误的原因似乎有所不同。 我启动了一次 MongoDB,它在我指定的数据文件夹中运行良好。当我再次运行它时(有时),它突然不再工作并给我以下输出日志: 2018-0
由于某种原因,LogCat 不再在崩溃时报告任何堆栈跟踪。相反,我只得到以下信息: D/AndroidRuntime: Shutting down VM W/dalvikvm: threadid=1:
当在超过一定数据大小(~2,5gb)的集群上运行sparkJob时,我收到“作业被取消,因为SparkContext被关闭”或“执行程序丢失”。当查看yarn gui时,我发现被杀死的工作是成功的。运
我正在尝试使用 this 实现一个服务器(能够接受多个客户端)和一个客户端教程并进行一些扩展。除了一项功能外,一切正常:当服务器运行1分钟后,它就会关闭,每个客户端都必须打印消息“服务器关闭”并关闭。
我正在 Android studio 中编码。我从 gitHub 克隆了一个项目 https://github.com/QuadFlask/colorpicker 但我有这个问题, 我不知道如何解决这
我正在尝试使用 Http 将数据发布到 REST 服务,并且我已按如下方式配置我的客户端: PoolingHttpClientConnectionManager cm = new PoolingHtt
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题吗? Update the question所以它是on-topic用于堆栈溢出。 关闭 10 年前。 Improve thi
我目前正在开发一个 Java DSL 路由,它将从 JMS 队列中获取一条消息,对其进行处理,然后使用 JPA 将其放入数据库中。真的很简单: public void configure() {
在我的客户端 Ant 任务中从 Jetty 服务器下载文件,我偶尔会得到一个 javax.net.ssl.SSLException: SSL peer shut down incorrectly at
我是一名优秀的程序员,十分优秀!