gpt4 book ai didi

Azure 数据工厂错误 - 字符串或二进制数据将被截断

转载 作者:行者123 更新时间:2023-12-05 05:02:10 29 4
gpt4 key购买 nike

我正在构建我的第一个数据工厂管道,一个非常基本的管道。我有一个仅包含源(csv 平面文件)和接收器(突触表)的数据流。

源有 12 列。因此,我在 Synapse 中(通过 SSMS)创建了一个表,其中所有 12 列均为 varchar。没有 key 。只是一个基本的表。当我构建数据流事件时,源和目标上的数据预览看起来都很完美。但是当我尝试运行(调试)管道时,它失败并出现以下错误:

Operation on target load_sales_data failed: {"StatusCode":"DFExecutorUserError",
"Message":"at Sink 'Sales': java.sql.BatchUpdateException:
[Microsoft][ODBC Driver 17 for SQL Server][SQL Server]String or binary data would be truncated.
","Details":"at Sink 'Sales': java.sql.BatchUpdateException:
[Microsoft][ODBC Driver 17 for SQL Server][SQL Server]String or binary data would be truncated. "}

我就是不明白。我花了很多时间试图找出问题所在,但我就是不明白。有人可以告诉我我做错了什么吗?

最佳答案

列长度太短,无法将 csv 列中的数据放入数据库表中。检查您是否为 varchar 列指定了合适的字段长度。请注意,默认长度为一个字符长。 varchar 数据类型的文档对于 varchar(n) 表示:

When n isn't specified in a data definition or variable declaration statement, the default length is 1.

如果您指定了长度,请仔细检查 csv 中的数据是否不包含太长的值。

字段分隔符不匹配可能会导致 ADF 将整行视为第一个字段的值,并且它会比您预期的长。检查 csv 源的字段分隔符设置。您可以在 ADF 中预览 Azure 门户中的表数据,以验证它是否正确看到 csv 结构。

更多信息请参见 Microsoft 文档:https://learn.microsoft.com/en-us/sql/t-sql/data-types/char-and-varchar-transact-sql

关于Azure 数据工厂错误 - 字符串或二进制数据将被截断,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62327563/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com