gpt4 book ai didi

apache-spark - to_date 无法解析 Spark 3.0 中的日期

转载 作者:行者123 更新时间:2023-12-03 15:30:30 25 4
gpt4 key购买 nike

我正在尝试使用 to_date() 解析日期但我收到以下异常。

SparkUpgradeException: You may get a different result due to the upgrading of Spark 3.0: Fail to parse '12/1/2010 8:26' in the new parser. You can set spark.sql.legacy.timeParserPolicy to LEGACY to restore the behavior before Spark 3.0, or set to CORRECTED and treat it as an invalid datetime string.


异常(exception)情况表明我应该使用旧版时间解析器,首先我不知道如何将其设置为旧版。
这是我的实现
dfWithDate = df.withColumn("date", to_date(col("InvoiceDate"), "MM/dd/yyyy"))
我的日期采用以下格式
+--------------+
| InvoiceDate|
+--------------+
|12/1/2010 8:26|
|12/1/2010 8:26|
|12/1/2010 8:26|
|12/1/2010 8:26|
|12/1/2010 8:26|

最佳答案

spark.sql("set spark.sql.legacy.timeParserPolicy=LEGACY")
df.withColumn("date", to_date(col("InvoiceDate"), "MM/dd/yyyy")).show()


+--------------+----------+
| InvoiceDate| date|
+--------------+----------+
|12/1/2010 8:26|2010-12-01|
+--------------+----------+

# in above code spark refers SparkSession

关于apache-spark - to_date 无法解析 Spark 3.0 中的日期,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62943941/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com