gpt4 book ai didi

hadoop - 在两个不同版本的 hadoop 之间的数据传输过程中得到校验和不匹配

转载 作者:可可西里 更新时间:2023-11-01 14:54:07 26 4
gpt4 key购买 nike

我是 hadoop 的新手。我正在使用 distcp 命令在 hadoop 0.20 和 hadoop 2.2.0 之间传输数据。在传输过程中我遇到以下错误:

Check-sum mismatch between hftp://10.0.3.28:50070/hive/warehouse/staging_precall_cdr/operator=idea/PRECALL_CDR_Assam_OCT_JAN.csv and hdfs://10.0.20.118:9000/user/hive/warehouse/PRECALL_CDR_Assam_OCT_JAN.csv

我也使用了 -skipcrccheck-Ddfs.checksum.type=CRC32 但没有得到任何解决方案。解决方案将不胜感激。

最佳答案

这看起来像是 Jira 中的一个已知问题,在 0.20 和 2.2.0 hadoop 版本之间复制数据 https://issues.apache.org/jira/browse/HDFS-3054 .

此问题的解决方法是使用 -pbc 在 distcp 复制中启用保留 block 和校验和。

hadoop distcp -pbc <SRC> <DEST>

使用 -skipcrccheck 选项使用跳过 CRC 检查

hadoop distcp -skipcrccheck -update <SRC> <DEST>

关于hadoop - 在两个不同版本的 hadoop 之间的数据传输过程中得到校验和不匹配,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22905411/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com