- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
当我使用 1 GB 数据集运行解析代码时,它完成且没有任何错误。但是,当我一次尝试 25 GB 数据时,出现以下错误。我试图了解如何避免以下故障。很高兴听到任何建议或想法。
不同的错误,
org.apache.spark.shuffle.MetadataFetchFailedException: Missing an output location for shuffle 0
org.apache.spark.shuffle.FetchFailedException: Failed to connect to ip-xxxxxxxx
org.apache.spark.shuffle.FetchFailedException: Error in opening FileSegmentManagedBuffer{file=/mnt/yarn/nm/usercache/xxxx/appcache/application_1450751731124_8446/blockmgr-8a7b17b8-f4c3-45e7-aea8-8b0a7481be55/08/shuffle_0_224_0.data, offset=12329181, length=2104094}
集群详细信息:
Yarn: 8 Nodes
Total cores: 64
Memory: 500 GB
Spark Version: 1.5
Spark 提交语句:
spark-submit --master yarn-cluster \
--conf spark.dynamicAllocation.enabled=true \
--conf spark.shuffle.service.enabled=true \
--executor-memory 4g \
--driver-memory 16g \
--num-executors 50 \
--deploy-mode cluster \
--executor-cores 1 \
--class my.parser \
myparser.jar \
-input xxx \
-output xxxx \
堆栈跟踪之一:
at org.apache.spark.MapOutputTracker$$anonfun$org$apache$spark$MapOutputTracker$$convertMapStatuses$2.apply(MapOutputTracker.scala:460)
at org.apache.spark.MapOutputTracker$$anonfun$org$apache$spark$MapOutputTracker$$convertMapStatuses$2.apply(MapOutputTracker.scala:456)
at scala.collection.TraversableLike$WithFilter$$anonfun$foreach$1.apply(TraversableLike.scala:772)
at scala.collection.IndexedSeqOptimized$class.foreach(IndexedSeqOptimized.scala:33)
at scala.collection.mutable.ArrayOps$ofRef.foreach(ArrayOps.scala:108)
at scala.collection.TraversableLike$WithFilter.foreach(TraversableLike.scala:771)
at org.apache.spark.MapOutputTracker$.org$apache$spark$MapOutputTracker$$convertMapStatuses(MapOutputTracker.scala:456)
at org.apache.spark.MapOutputTracker.getMapSizesByExecutorId(MapOutputTracker.scala:183)
at org.apache.spark.shuffle.hash.HashShuffleReader.read(HashShuffleReader.scala:47)
at org.apache.spark.rdd.ShuffledRDD.compute(ShuffledRDD.scala:90)
at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:297)
at org.apache.spark.rdd.RDD.iterator(RDD.scala:264)
at org.apache.spark.rdd.MapPartitionsRDD.compute(MapPartitionsRDD.scala:38)
at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:297)
at org.apache.spark.rdd.RDD.iterator(RDD.scala:264)
at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:66)
at org.apache.spark.scheduler.Task.run(Task.scala:88)
at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:214)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:745)
最佳答案
这个错误几乎肯定是由执行器上的内存问题引起的。我可以想出几种方法来解决这些类型的问题。
1) 您可以尝试使用更多分区运行(在数据帧
上执行重新分区
)。当一个或多个分区包含的数据多于内存所能容纳的数据时,通常会出现内存问题。
2) 我注意到您没有显式设置 spark.yarn.executor.memoryOverhead
,因此它将默认为 max(386, 0.10* executorMemory)
在您的情况下将为 400MB。这对我来说听起来很低。我会尝试将其增加到 1GB(请注意,如果将内存开销增加到 1GB,则需要将 --executor-memory
降低到 3GB)
3) 查看故障节点上的日志文件。您想要查找文本“杀死容器”。如果您看到文本“超出物理内存限制”,根据我的经验,增加内存开销将解决问题。
关于apache-spark - 处理大数据集时的 FetchFailedException 或 MetadataFetchFailedException,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34941410/
当我使用 1 GB 数据集运行解析代码时,它完成且没有任何错误。但是,当我一次尝试 25 GB 数据时,出现以下错误。我试图了解如何避免以下故障。很高兴听到任何建议或想法。 不同的错误, org.ap
当我使用 1 GB 数据集运行解析代码时,它完成时没有任何错误。但是,当我一次尝试 25 GB 的数据时,出现以下错误。我试图了解如何避免以下失败。很高兴听到任何建议或想法。 不同的错误, org.a
我正在使用 spark version 1.6.3和 yarn version 2.7.1.2.3自带HDP-2.3.0.0-2557 .因为spark版本在我使用的HDP版本中太旧了,我更喜欢远程使
我将 Spark 与 YARN 集群管理器结合使用。 我从一个 Cassandra 表创建了一个数据集,该表包含大约 700 行,其中有 5 列,其中一列包含 JSON 格式的数据。数据量仅以 MB
我有一份处理大量数据的工作。此作业经常运行而没有任何错误,但偶尔会引发此错误。我正在使用 Kyro Serializer。 我正在使用 yarn 集群运行 Spark 1.2.0。 完整的堆栈跟踪在这
已关闭。此问题需要 debugging details 。目前不接受答案。 编辑问题以包含 desired behavior, a specific problem or error, and the
我正在为确定父子项的表生成层次结构。 以下是使用的配置,即使在收到关于过大框架的错误后: Spark 属性 --conf spark.yarn.executor.memoryOverhead=1024
我尝试提交示例 Apache Spark Streaming 应用程序: /opt/spark/bin/spark-submit --class org.apache.spark.examples.s
我是一名优秀的程序员,十分优秀!