gpt4 book ai didi

apache-spark - 如果列内容太长,如何使用 spark-redshift 截断列?

转载 作者:行者123 更新时间:2023-12-01 23:22:00 25 4
gpt4 key购买 nike

我想知道如果列内容太长,如何使用 spark-redshift 截断列,而不是返回错误。

最佳答案

spark-redshift 连接器在后台使用 redshift-jdbc 连接器。此连接器用于在 AWS Redshift 上自动触发适当的 COPYUNLOAD 命令。

但您可以指定 extracopyoptions,这是一个附加选项列表,用于在加载数据时附加到 AWS Redshift COPY 命令,例如TRUNCATECOLUMNS 在你的情况下。

注意因为这些选项被附加到COPY命令的末尾,所以只能使用在命令末尾有意义的选项,但是应该涵盖大多数可能的用例。

关于apache-spark - 如果列内容太长,如何使用 spark-redshift 截断列?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40052386/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com