gpt4 book ai didi

python - 将行列表转换为 PySpark 数据框

转载 作者:行者123 更新时间:2023-12-03 23:10:56 24 4
gpt4 key购买 nike

我有以下要转换为 PySpark df 的行列表:

data= [Row(id=u'1', probability=0.0, thresh=10, prob_opt=0.45),
Row(id=u'2', probability=0.4444444444444444, thresh=60, prob_opt=0.45),
Row(id=u'3', probability=0.0, thresh=10, prob_opt=0.45),
Row(id=u'80000000808', probability=0.0, thresh=100, prob_opt=0.45)]
我需要将其转换为 PySpark DF。
我试过做 data.toDF() :

AttributeError: 'list' object has no attribute 'toDF'

最佳答案

您可以尝试以下代码:

from pyspark.sql import Row

rdd = sc.parallelize(data)

df=rdd.toDF()

关于python - 将行列表转换为 PySpark 数据框,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57559783/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com