gpt4 book ai didi

java - Apache Spark - 无法理解 scala 示例

转载 作者:行者123 更新时间:2023-11-30 03:04:50 25 4
gpt4 key购买 nike

我正在尝试理解此位置的 scala 代码。 (我是java背景的)。

https://github.com/apache/spark/blob/master/examples/src/main/scala/org/apache/spark/examples/GroupByTest.scala

我在下面的部分中感到完全迷失了

val pairs1 = sc.parallelize(0 until numMappers, numMappers).flatMap { p =>
val ranGen = new Random
var arr1 = new Array[(Int, Array[Byte])](numKVPairs)
for (i <- 0 until numKVPairs) {
val byteArr = new Array[Byte](valSize)
ranGen.nextBytes(byteArr)
arr1(i) = (ranGen.nextInt(Int.MaxValue), byteArr)
}
arr1
}.cache()

我知道并行化和平面 map 的作用。我不明白 arr1 是如何初始化的。它是 int 类型还是其他类型——字节数组?另外,它在 for 循环逻辑中做了什么。

最佳答案

var arr1 = new Array[(Int, Array[Byte])](numKVPairs)

简单地创建一个大小为numKVPairs且类型为(Int, Array[Byte])的数组(int对和字节数组)

之后,arr1 被随机数据填充。

关于java - Apache Spark - 无法理解 scala 示例,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35046828/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com