gpt4 book ai didi

hadoop - 使用超过15位数字的数值变量将sas数据写入Hive

转载 作者:行者123 更新时间:2023-12-02 19:14:09 25 4
gpt4 key购买 nike

我正在尝试使用SAS将SAS数据写入Hive。我的表中有一个ID变量,其长度> 15位,并且在将数据写入Hive时需要将该变量保持为数值。我已经尝试了以下脚本,但是它给了我以下警告,并且Hive表中的值被截断为15个数字并带有“e”。

data scr.EOB_tgt(dbtype=(nacct="BIGINT"))
;
format nacct best20.
ncust $10.
;
set lat2(keep=ncust nacct bal);
run;

NOTE: SAS variable labels, formats, and lengths are not written to DBMS tables.
WARNING: Value 1589000007877656 has more than 15 digits. It may not be accurately inserted to the BIGINT column.

有人知道如何克服这个问题吗?

我希望能够在Hive表中获取完整的16位数字值

最佳答案

SAS将所有数字存储为8字节浮点数。因此,您不能精确表示超过15位的整数。若要查看可以精确表示的最大整数,请使用CONSTANT()函数。

data _null_;
x=constant('exactint');
put x 16. +1 x comma21.;
run;

结果:
9007199254740992 9,007,199,254,740,992

因此,如果您具有大于9,007,199,254,740,992的ID值,则无法将它们作为数字存储在SAS中。

为什么将ID值存储为数字?无需对ID值执行算术运算。

关于hadoop - 使用超过15位数字的数值变量将sas数据写入Hive,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58184167/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com