gpt4 book ai didi

python - 将时间序列pySpark数据帧拆分为测试和训练,而无需使用随机拆分

转载 作者:行者123 更新时间:2023-12-01 07:51:02 25 4
gpt4 key购买 nike

我有一个 Spark 时间序列数据框。我想将其拆分为80-20(训练测试)。由于这是一个时间序列数据帧,因此我不想进行随机拆分。为了将第一个数据帧传递到训练中并传递第二个数据帧进行测试,我该如何做?

最佳答案

您可以使用 pyspark.sql.functions.percent_rank() 来获取按时间戳/日期列排序的DataFrame的百分位排名。然后,选择所有带有rank <= 0.8的列作为训练集,其余选择作为测试集。

例如,如果您具有以下DataFrame:

df.show(truncate=False)
#+---------------------+---+
#|date |x |
#+---------------------+---+
#|2018-01-01 00:00:00.0|0 |
#|2018-01-02 00:00:00.0|1 |
#|2018-01-03 00:00:00.0|2 |
#|2018-01-04 00:00:00.0|3 |
#|2018-01-05 00:00:00.0|4 |
#+---------------------+---+

您需要训练集中的前4行和训练集中的最后一行。首先添加一列 rank:

from pyspark.sql.functions import percent_rank
from pyspark.sql import Window

df = df.withColumn("rank", percent_rank().over(Window.partitionBy().orderBy("date")))

现在使用 rank将您的数据分为 traintest:

train_df = df.where("rank <= .8").drop("rank")
train_df.show()
#+---------------------+---+
#|date |x |
#+---------------------+---+
#|2018-01-01 00:00:00.0|0 |
#|2018-01-02 00:00:00.0|1 |
#|2018-01-03 00:00:00.0|2 |
#|2018-01-04 00:00:00.0|3 |
#+---------------------+---+

test_df = df.where("rank > .8").drop("rank")
test_df.show()
#+---------------------+---+
#|date |x |
#+---------------------+---+
#|2018-01-05 00:00:00.0|4 |
#+---------------------+---+

关于python - 将时间序列pySpark数据帧拆分为测试和训练,而无需使用随机拆分,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51772908/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com