gpt4 book ai didi

apache-spark - pyspark - 将纪元时间转换为日期

转载 作者:行者123 更新时间:2023-12-04 07:16:16 25 4
gpt4 key购买 nike

我有一个专栏 epoc我想转换为日期的时间。但是,在尝试时它给了我错误的日期。

>>> parsed_df.withColumn("event_date", from_unixtime(col('event_time').cast('long')).alias("event_date")).select("event_time", "event_date").limit(10).show()
+-------------+--------------------+
| event_time| event_date|
+-------------+--------------------+
|1614870695528|53143-03-20 21:12:08|
|1611501104538|53036-06-08 23:42:18|
|1615043979790|53148-09-15 11:43:10|
|1614654606398|53136-05-14 20:26:38|
|1612020007207|53052-11-17 18:20:07|
|1611630590580|53040-07-16 16:03:00|
|1623251369665|53408-10-15 10:14:25|
|1611026130542|53021-05-21 14:29:02|
|1611544602034|53037-10-25 10:20:34|
|1612150206612|53057-01-02 16:50:12|
+-------------+--------------------+

最佳答案

将 event_time 列除以 1000 应该适合您。对于 from_unixtime 方法,纪元应该以秒为单位,但在您的情况下,它以毫秒为单位。

parsed_df.withColumn("event_date", from_unixtime(col('event_time').cast('long')/1000).alias("event_date"))

关于apache-spark - pyspark - 将纪元时间转换为日期,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/68732442/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com