- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我有一个 JavaPairRDD<Integer, Integer[]>
我想在其上执行 groupByKey
行动。
groupByKey
行动给我一个:
org.apache.spark.shuffle.MetadataFetchFailedException: Missing an output location for shuffle
如果我没记错的话,这实际上是一个 OutOfMemory 错误。这只发生在大数据集中(在我的例子中,Web UI 中显示的“Shuffle Write”约为 96GB)。
我已经设置:
spark.serializer org.apache.spark.serializer.KryoSerializer
在$SPARK_HOME/conf/spark-defaults.conf
,但我不确定 Kryo 是否用于序列化我的 JavaPairRDD。
除了设置此 conf 参数之外,我还应该做些什么来使用 Kryo 来序列化我的 RDD?我可以在 serialization instructions 中看到那:
Spark automatically includes Kryo serializers for the many commonly-used core Scala classes covered in the AllScalaRegistrar from the Twitter chill library.
还有:
Since Spark 2.0.0, we internally use Kryo serializer when shuffling RDDs with simple types, arrays of simple types, or string type.
我还注意到,当我将 spark.serializer 设置为 Kryo 时,Web UI 中的 Shuffle Write 从 ~96GB(使用默认序列化器)增加到 243GB!
编辑: 在评论中,有人问我程序的逻辑,以防 groupByKey 可以替换为 reduceByKey。我不认为这是可能的,但无论如何:
输入的形式为:
随机写入操作产生以下形式的对:
groupByKey
操作收集每个实体的所有邻居数组,有些可能出现不止一次(在许多桶中)。
groupByKey
之后在操作中,我为每个桶保留一个权重(基于它包含的负实体 ID 的数量),并为每个邻居 ID 汇总它所属的桶的权重。
我用另一个值(假设它是给定的)标准化每个邻居 ID 的分数,并发出每个实体的前 3 个邻居。
我获得的不同键的数量约为 1000 万(大约 500 万个正实体 ID 和 500 万个负实体 ID)。
EDIT2:我尝试分别使用 Hadoop 的 Writables(VIntWritable 和 VIntArrayWritable 扩展 ArrayWritable)而不是 Integer 和 Integer[],但是 shuffle 大小仍然大于默认的 JavaSerializer。
然后我增加了spark.shuffle.memoryFraction
从 0.2 到 0.4(即使在 2.1.0 版中已弃用,也没有说明应该使用什么来代替)并启用了 offHeap 内存,并且 shuffle 大小减少了约 20GB。即使这符合标题的要求,我还是更喜欢一种算法性更强的解决方案,或者包含更好压缩的解决方案。
最佳答案
简答:使用fastutil并可能增加 spark.shuffle.memoryFraction
。
更多详情:这个 RDD 的问题是 Java 需要存储 Object
引用,这比原始类型消耗更多的空间。在此示例中,我需要存储 Integer
,而不是 int
值。 Java Integer
占用 16 个字节,而原始 Java int
占用 4 个字节。另一方面,Scala 的 Int
类型是 32 位(4 字节)类型,就像 Java 的 int
一样,这就是为什么使用 Scala 的人可能没有遇到过一些问题相似的。
除了将 spark.shuffle.memoryFraction
增加到 0.4 之外,另一个不错的解决方案是使用 fastutil library , 如 Spark's tuning documentation 中所建议:
The first way to reduce memory consumption is to avoid the Java features that add overhead, such as pointer-based data structures and wrapper objects. There are several ways to do this: Design your data structures to prefer arrays of objects, and primitive types, instead of the standard Java or Scala collection classes (e.g. HashMap). The fastutil library provides convenient collection classes for primitive types that are compatible with the Java standard library.
这可以将我的 RDD 对的 int 数组中的每个元素存储为 int
类型(即,对数组的每个元素使用 4 个字节而不是 16 个字节)。就我而言,我使用了 IntArrayList
而不是 Integer[]
。这使得 shuffle 大小显着下降,并允许我的程序在集群中运行。我还在代码的其他部分使用了这个库,在那里我制作了一些临时的 Map 结构。总的来说,通过将 spark.shuffle.memoryFraction
增加到 0.4 并使用 fastutil 库,shuffle 大小从 96GB 下降到 50GB (!) 使用默认的 Java 序列化程序(不是 Kryo)。
备选方案:我还尝试对 rdd 对的每个 int 数组进行排序,并使用 Hadoop 的 VIntArrayWritable 类型存储增量(较小的数字比较大的数字使用较少的空间),但这也需要注册 VIntWritable和 Kryo 中的 VIntArrayWritable,毕竟它没有节省任何空间。总的来说,我认为 Kryo 只会让事情运行得更快,但不会减少所需的空间,但我仍然不确定。
我还没有将这个答案标记为已接受,因为其他人可能有更好的主意,而且因为我毕竟没有使用 Kryo,正如我的 OP 所要求的那样。我希望阅读它,能帮助其他人解决同样的问题。如果我设法进一步减小随机播放大小,我将更新此答案。
关于java - spark - 如何减少 JavaPairRDD<Integer, Integer[]> 的洗牌大小?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42733558/
目前正在学习 Spark 的类(class)并了解到执行者的定义: Each executor will hold a chunk of the data to be processed. Thisc
阅读了有关 http://spark.apache.org/docs/0.8.0/cluster-overview.html 的一些文档后,我有一些问题想要澄清。 以 Spark 为例: JavaSp
Spark核心中的调度器与以下Spark Stack(来自Learning Spark:Lightning-Fast Big Data Analysis一书)中的Standalone Schedule
我想在 spark-submit 或 start 处设置 spark.eventLog.enabled 和 spark.eventLog.dir -all level -- 不要求在 scala/ja
我有来自 SQL Server 的数据,需要在 Apache Spark (Databricks) 中进行操作。 在 SQL Server 中,此表的三个键列使用区分大小写的 COLLATION 选项
所有这些有什么区别和用途? spark.local.ip spark.driver.host spark.driver.bind地址 spark.driver.hostname 如何将机器修复为 Sp
我有大约 10 个 Spark 作业,每个作业都会进行一些转换并将数据加载到数据库中。必须为每个作业单独打开和关闭 Spark session ,每次初始化都会耗费时间。 是否可以只创建一次 Spar
/Downloads/spark-3.0.1-bin-hadoop2.7/bin$ ./spark-shell 20/09/23 10:58:45 WARN Utils: Your hostname,
我是 Spark 的完全新手,并且刚刚开始对此进行更多探索。我选择了更长的路径,不使用任何 CDH 发行版安装 hadoop,并且我从 Apache 网站安装了 Hadoop 并自己设置配置文件以了解
TL; 博士 Spark UI 显示的内核和内存数量与我在使用 spark-submit 时要求的数量不同 更多细节: 我在独立模式下运行 Spark 1.6。 当我运行 spark-submit 时
spark-submit 上的文档说明如下: The spark-submit script in Spark’s bin directory is used to launch applicatio
关闭。这个问题是opinion-based .它目前不接受答案。 想改善这个问题吗?更新问题,以便可以通过 editing this post 用事实和引文回答问题. 6 个月前关闭。 Improve
我想了解接收器如何在 Spark Streaming 中工作。根据我的理解,将有一个接收器任务在执行器中运行,用于收集数据并保存为 RDD。当调用 start() 时,接收器开始读取。需要澄清以下内容
有没有办法在不同线程中使用相同的 spark 上下文并行运行多个 spark 作业? 我尝试使用 Vertx 3,但看起来每个作业都在排队并按顺序启动。 如何让它在相同的 spark 上下文中同时运行
我们有一个 Spark 流应用程序,这是一项长期运行的任务。事件日志指向 hdfs 位置 hdfs://spark-history,当我们开始流式传输应用程序时正在其中创建 application_X
我们正在尝试找到一种加载 Spark (2.x) ML 训练模型的方法,以便根据请求(通过 REST 接口(interface))我们可以查询它并获得预测,例如http://predictor.com
Spark newb 问题:我在 spark-sql 中进行完全相同的 Spark SQL 查询并在 spark-shell . spark-shell版本大约需要 10 秒,而 spark-sql版
我正在使用 Spark 流。根据 Spark 编程指南(参见 http://spark.apache.org/docs/latest/programming-guide.html#accumulato
我正在使用 CDH 5.2。我可以使用 spark-shell 运行命令。 如何运行包含spark命令的文件(file.spark)。 有没有办法在不使用 sbt 的情况下在 CDH 5.2 中运行/
我使用 Elasticsearch 已经有一段时间了,但使用 Cassandra 的经验很少。 现在,我有一个项目想要使用 Spark 来处理数据,但我需要决定是否应该使用 Cassandra 还是
我是一名优秀的程序员,十分优秀!