gpt4 book ai didi

hadoop - hive 将字符串转换为时间戳会丢弃毫秒信息

转载 作者:行者123 更新时间:2023-12-02 20:16:56 25 4
gpt4 key购买 nike

我正在尝试将以下字符串转换为时间戳。但是无法弄清楚如何处理最后的milisecond part 字符串:

2020-06-30T23:57:48.000-0400
以下工作。无论如何,它丢失了毫秒信息。
hive> select from_unixtime(unix_timestamp("2020-06-30T23:57:48.000-0400", "yyyy-MM-dd'T'HH:mm:ss.SSS'-'SSS"), "yyyy-MM-dd'T'HH:mm:ss.SSS'-'SSSS");
OK
2020-06-30T23:57:48.000-0000
期望值
2020-06-30T23:57:48.000-0400
更新
即使这不起作用
查询
hive> select date_format("2020-01-23 23:59:54.0000400", "yyyy-MM-dd HH:mm:ss.SSSSSSS");

输出
2020-01-23 23:59:54.0000000

最佳答案

试试这个 -
选择
concat(from_unixtime(unix_timesstamp('2020-01-23 23:59:54.0000400','yyyy-MM-dd HH:mm:ss')),'。',split('2020-01-23 23:59: 54.0000400','[。]')[1]);
希望对您有所帮助。

关于hadoop - hive 将字符串转换为时间戳会丢弃毫秒信息,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62921539/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com