gpt4 book ai didi

python - 将数组传递给 Spark Lit 函数

转载 作者:太空狗 更新时间:2023-10-29 17:17:08 26 4
gpt4 key购买 nike

假设我有一个包含数字 1-10 的 numpy 数组 a:
[1 2 3 4 5 6 7 8 9 10]

我还有一个 Spark 数据框,我想将我的 numpy 数组 a 添加到其中。我认为一列文字可以完成这项工作。这不起作用:

df = df.withColumn("NewColumn", F.lit(a))

Unsupported literal type class java.util.ArrayList

但这行得通:

df = df.withColumn("NewColumn", F.lit(a[0]))

怎么做?

之前的示例 DF:

<表类="s-表"><头>col1<正文>a b c d e f g h i j

预期结果:

<表类="s-表"><头>col1新列<正文>a b c d e f g h i j1 2 3 4 5 6 7 8 9 10

最佳答案

Spark 的 array 中的列表理解

a = [1,2,3,4,5,6,7,8,9,10]
df = spark.createDataFrame([['a b c d e f g h i j '],], ['col1'])
df = df.withColumn("NewColumn", F.array([F.lit(x) for x in a]))

df.show(truncate=False)
df.printSchema()
# +--------------------+-------------------------------+
# |col1 |NewColumn |
# +--------------------+-------------------------------+
# |a b c d e f g h i j |[1, 2, 3, 4, 5, 6, 7, 8, 9, 10]|
# +--------------------+-------------------------------+
# root
# |-- col1: string (nullable = true)
# |-- NewColumn: array (nullable = false)
# | |-- element: integer (containsNull = false)

@pault 评论(Python 2.7):

You can hide the loop using map:
df.withColumn("NewColumn", F.array(map(F.lit, a)))

@abegehr 添加了 Python 3 版本:

df.withColumn("NewColumn", F.array(*map(F.lit, a)))

Spark 的udf

# Defining UDF
def arrayUdf():
return a
callArrayUdf = F.udf(arrayUdf, T.ArrayType(T.IntegerType()))

# Calling UDF
df = df.withColumn("NewColumn", callArrayUdf())

输出相同。

关于python - 将数组传递给 Spark Lit 函数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49683897/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com