- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我正在使用 Spark 的 Python API 并运行 Spark 0.8。
我正在存储大量浮点向量 RDD,我需要针对整个集合执行一个向量的计算。
RDD 中的分片和分区有区别吗?
当我创建 RDD 时,我将 100 作为参数传递给它,这导致它将 RDD 存储为 100 个切片,并在执行计算时创建 100 个任务。我想知道对数据进行分区是否可以通过使系统更有效地处理数据来提高切片之外的性能(即,对分区执行操作与仅对切片 RDD 中的每个元素进行操作之间是否存在差异)。
例如,这两段代码之间有什么显着差异吗?
rdd = sc.textFile(demo.txt, 100)
对比
rdd = sc.textFile(demo.txt)
rdd.partitionBy(100)
最佳答案
我相信 slices
和 partitions
在 Apache Spark 中是一样的。
但是,您发布的两段代码之间存在细微但可能很重要的差异。
此代码将尝试使用 100 个并发任务将 demo.txt
直接加载到 100 个分区中:
rdd = sc.textFile('demo.txt', 100)
对于未压缩的文本,它将按预期工作。但是如果你有一个 demo.gz
而不是 demo.txt
,你最终会得到一个只有 1 个分区的 RDD。无法并行读取 gzip 文件。
另一方面,下面的代码首先将demo.txt
打开到一个具有默认分区数的RDD中,然后它会显式地将数据重新分区为100大小大致相等的分区。
rdd = sc.textFile('demo.txt')
rdd = rdd.repartition(100)
因此在这种情况下,即使使用 demo.gz
,您最终也会得到一个包含 100 个分区的 RDD。
作为旁注,我用 repartition()
替换了你的 partitionBy()
因为我相信你正在寻找它。 partitionBy()
要求 RDD 是元组的 RDD。由于 repartition()
在 Spark 0.8.0 中不可用,您应该可以使用 coalesce(100, shuffle=True)
。
Spark 可以为 RDD 的每个分区运行 1 个并发任务,最多可达集群中的核心数。所以如果你有一个有 50 个核心的集群,你希望你的 RDD 至少有 50 个分区(可能是 2-3x times that )。
从 Spark 1.1.0 开始,您可以检查一个 RDD 有多少个分区,如下所示:
rdd.getNumPartitions() # Python API
rdd.partitions.size // Scala API
在 1.1.0 之前,使用 Python API 执行此操作的方法是 rdd._jrdd.splits().size()
。
关于python - RDD的切片和分区有什么区别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24269495/
是一种在 Neo4j 分区之间进行物理分离的方法吗? 这意味着以下查询将转到 node1: Match (a:User:Facebook) 虽然此查询将转到另一个节点(可能托管在 docker 上)
我尝试在我的 SQL 服务器上使用分区函数对我的一个大表进行分区,但我收到一条错误消息 “只能在SQL Server企业版中创建分区功能。只有SQL Server企业版支持分区。” 所以我想知道没有企
在hadoop文件系统中,我有两个文件,分别是X和Y。通常,hadoop制作的文件X和Y的大小为64 MB。是否可以强制hadoop划分两个文件,以便从X的32 MB和Y的32 MB中创建一个64 M
据我了解,如果我们有一个主键,则使用该键对数据进行分区并将其存储在节点中(例如使用随机分区器)。 现在我不确定的是,如果我有多个键(又名复合键),是用于分区数据的键的组合还是它将是第一个主键? 例如,
我正在向我的 SSAS 多维数据集添加分区,我想知道是否有多个分区可以保留在下面?多少太多了,最佳实践限制是 20 还是 200?有没有人可以分享任何真实世界的知识? 最佳答案 这是 another
我有一个包含大约 200 万条记录的大表,我想对其进行分区。 我将 id 列设置为 PRIMARY AUTO_INCRMENT int (并且它必须始终是唯一的)。我有一列“theyear”int(4
我正在做 mysql 列表分区。我的表数据如下 ---------------------------------------- id | unique_token | city | student_
我有一个表,我们每天在其中插入大约 2000 万个条目(没有任何限制的盲插入)。我们有两个外键,其中一个是对包含大约 1000 万个条目的表的引用 ID。 我打算删除此表中超过一个月的所有数据,因为不
我想在一款足球奇幻游戏中尝试使用 MySQL Partitioning,该游戏的用户分布在联赛中,每个联赛都有一个用户可以买卖球员的市场。当很多用户同时玩时,我在这张表中遇到了一些僵局(在撰写本文时大
我是 jQuery 的新手,想知道是否可以获取一些变量并将它们的除法作为 CSS 宽度。到目前为止我在这里: var x = $(".some-container").length; var y =
所以我正在做家庭作业,我需要为分区、斯特林数(第一类和第二类)和第一类的切比雪夫多项式创建递归函数。我的程序应该能够让用户输入一个正整数 n,然后创建名为 Partitions.txt、Stirlin
我在数据框中有一列,其中包含大约 1,4M 行聊天对话,其中每个单元格中的一般格式为 (1): “名称代理 : 对话” 但是,并非列中的所有单元格都采用这种格式。有些单元格只是 (2): “对话” 我
我在尝试隐藏 a 时遇到了一些问题,直到用户单击某个元素为止。 HTML 看起来像: BRAND item 1 item 2 item 3
一.为什么kafka要做分区? 因为当一台机器有可能扛不住(类比:就像redis集群中的redis-cluster一样,一个master抗不住写,那么就多个master去抗写)
我有一些销售数据,我需要发送存储在单独表中的可用槽中的数量。 销售数据示例: id数量112131415369 create table sales (id serial primary key, q
我计划设置多个节点以使用 glusterfs 创建分布式复制卷 我使用主(也是唯一)分区上的目录在两个节点上创建了一个 gluster 复制卷。 gluster volume create vol_d
我正在尝试使用 sum() over (partition by) 但在总和中过滤。我的用例是将每个产品的 12 个月累计到一个月的条目,因此: ITEM MONTH SALES Item
是否可以创建多个 Enumerators出单Enumerator ? 我正在寻找的相当于 List.partition返回 (List[A], List[A]) ,比如 List().partitio
我正在创建一个基于 x86 的非常简单的 Yocto 图像。 我希望/文件系统是只读的,所以我设置了 IMAGE_FEATURES_append = " read-only-rootfs " 在原件的
是否可以使用一次 collect 调用来创建 2 个新列表?如果没有,我该如何使用分区来做到这一点? 最佳答案 collect(在TraversableLike上定义并在所有子类中可用)与集合和Par
我是一名优秀的程序员,十分优秀!