gpt4 book ai didi

hadoop - Hive的unbase64()函数的结果在Hive表中是正确的,但在输出文件中变为错误

转载 作者:行者123 更新时间:2023-12-02 19:20:06 32 4
gpt4 key购买 nike

有两个问题:

  • 我使用unbase64()处理数据,并且输出在HiveSparkSQL中完全为正确。但是在Presto中,它显示:

  • enter image description here
  • 然后我将数据插入到本地路径和hdfs中,并且两个输出文件中的数据都错误:

  • enter image description here

    我用来插入数据的代码:
    insert overwrite directory '/tmp/ssss'
    ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
    select * from tmp_ol.aaa;

    我的问题是:
    1.为什么在 hiveSparkSQL以及 Presto中都能正确显示处理后的数据?我机器上的Presto可以显示这种字符。
  • 为什么数据无法在输出文件中正确显示?这些文件为utf-8格式。
  • 最佳答案

    您可以尝试在unbase64()函数的输出上使用CAST(AS STRING)。

    spark.sql("""Select CAST(unbase64('UsImF1dGhvcml6ZWRSZXNvdXJjZXMiOlt7Im5h') AS STRING) AS values FROM dual""").show(false)```

    关于hadoop - Hive的unbase64()函数的结果在Hive表中是正确的,但在输出文件中变为错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47709578/

    32 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com