gpt4 book ai didi

python-3.x - 在 PySpark Python 中减去两个日期列

转载 作者:行者123 更新时间:2023-12-05 01:00:59 26 4
gpt4 key购买 nike

我试图在 Python 中减去 PySpark Dataframe 中的两列我遇到了很多问题,我的列类型为时间戳,该列是 date1 = 2011-01 -03 13:25:59 并想从其他日期列中减去它 date2 = 2011-01-03 13:27:00 所以我想要 date2 - date1 并从这些数据框列中创建一个单独的 timediff 列,显示这两列的差异,例如 timeDiff = 00:01:01

如何在 PySaprk 中做到这一点

我尝试了以下代码:

#timeDiff = df.withColumn(('timeDiff', col(df['date2']) - col(df['date1'])))

此代码无效

我试着做这个简单的事情:

timeDiff = df['date2'] - df['date1']

这确实有效,但之后我尝试通过以下代码将此单独的列添加到我的数据框中

df = df.withColumn("Duration", timeDiff)

出现以下错误:

Py4JJavaError: An error occurred while calling o107.withColumn.
: org.apache.spark.sql.AnalysisException: cannot resolve '(`date2` - `date1`)' due to data type mismatch: '(`date2` - `date1`)' requires (numeric or calendarinterval) type, not timestamp;;

任何人都可以用任何其他方法帮助我,或者我该如何解决这个错误??

最佳答案

from pyspark.sql.functions import unix_timestamp

#sample data
df = sc.parallelize([
['2011-01-03 13:25:59', '2011-01-03 13:27:00'],
['2011-01-03 3:25:59', '2011-01-03 3:30:00']
]).toDF(('date1', 'date2'))

timeDiff = (unix_timestamp('date2', "yyyy-MM-dd HH:mm:ss") - unix_timestamp('date1', "yyyy-MM-dd HH:mm:ss"))
df = df.withColumn("Duration", timeDiff)
df.show()

输出是:

+-------------------+-------------------+--------+
| date1| date2|Duration|
+-------------------+-------------------+--------+
|2011-01-03 13:25:59|2011-01-03 13:27:00| 61|
| 2011-01-03 3:25:59| 2011-01-03 3:30:00| 241|
+-------------------+-------------------+--------+

关于python-3.x - 在 PySpark Python 中减去两个日期列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47701339/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com