gpt4 book ai didi

hadoop - 行数Cassandra-> Hadoop输入不同

转载 作者:行者123 更新时间:2023-12-02 20:08:24 27 4
gpt4 key购买 nike

我在2节点群集上有一个带有147.968行的ColumnFamily(显示“nodetool cfstats”)。

如果我执行我的Hadoop Job,他在“ map 输入记录”上仅显示90.174行?我的Hadoop CQL输入配置为:

ConfigHelper.setInputRpcPort(job.getConfiguration(), "9160");
ConfigHelper.setInputInitialAddress(job.getConfiguration(), "xxx.xxx.xxx.xxx");
ConfigHelper.setInputColumnFamily(job.getConfiguration(), KEYSPACE, "columnfamilyname");
ConfigHelper.setInputPartitioner(job.getConfiguration(), "Murmur3Partitioner");

还有其他配置吗?

最佳答案

您的输入/输出格式是什么?最好使用CqlPagingInputFormat。 FTY。 cql表行与列族行不同,因此,如果使用CqlPagingInputFormat,则应获得与从Cqlsh获得的行数相同的行数。

关于hadoop - 行数Cassandra-> Hadoop输入不同,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19774858/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com