gpt4 book ai didi

apache-spark - 如何将向量列分成两列?

转载 作者:行者123 更新时间:2023-12-04 19:01:12 24 4
gpt4 key购买 nike

我使用 PySpark。

Spark ML 的随机森林输出 DataFrame 有一列“概率”,它是一个具有两个值的向量。我只想向输出 DataFrame 添加两列“prob1”和“prob2”,它们对应于向量中的第一个和第二个值。

我尝试了以下方法:

output2 = output.withColumn('prob1', output.map(lambda r: r['probability'][0]))

但我收到“col 应该是 Column”的错误。

关于如何将一列向量转换为其值列的任何建议?

最佳答案

我想出了上面的建议的问题。在 pyspark 中,“密集向量简单地表示为 NumPy 数组对象”,因此问题在于 python 和 numpy 类型。需要添加 .item() 以将 numpy.float64 转换为 python 浮点数。

以下代码有效:

split1_udf = udf(lambda value: value[0].item(), FloatType())
split2_udf = udf(lambda value: value[1].item(), FloatType())

output2 = randomforestoutput.select(split1_udf('probability').alias('c1'), split2_udf('probability').alias('c2'))

或者将这些列附加到原始数据帧:
randomforestoutput.withColumn('c1', split1_udf('probability')).withColumn('c2', split2_udf('probability'))

关于apache-spark - 如何将向量列分成两列?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37311688/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com