作者热门文章
- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
为了测试.repartition()
的工作方式,我运行了以下代码:
rdd = sc.parallelize(range(100))
rdd.getNumPartitions()
rdd.getNumPartitions()
产生
4
。然后我跑了:
rdd = rdd.repartition(10)
rdd.getNumPartitions()
rdd.getNumPartitions()
产生了
10
,因此现在有10个分区。
rdd.glom().collect()
最佳答案
repartition()背后的算法使用逻辑来优化跨分区重新分配数据的最有效方法。在这种情况下,您的范围很小,并且无法找到进一步分解数据的最佳选择。如果要使用更大的范围(例如100000),您会发现它确实在重新分配数据。
如果要强制执行一定数量的分区,则可以根据数据的初始负载来指定分区数。在这一点上,即使它不一定是最佳数据,它也会尝试在各个分区之间平均分配数据。并行化功能对分区使用第二个参数
rdd = sc.parallelize(range(100), 10)
rdd = sc.textFile('path/to/file/, numPartitions)
关于apache-spark - 如何在Spark中平均分配分区?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38102013/
我是一名优秀的程序员,十分优秀!