gpt4 book ai didi

scala - ApacheFlink 中的数据集联盟

转载 作者:行者123 更新时间:2023-12-01 00:50:30 24 4
gpt4 key购买 nike

我正在尝试联合 Seq[DataSet(Long,Long,Double)]
DataSet[(Long,Long,Double)]在 Flink 中:

     val neighbors= graph.map(el => zKnn.neighbors(results,
el.vector, 150, metric)).reduce(
(a, b) => a.union(b)
).collect()

其中 graph 是一个常规的 scala 集合,但可以转换为 DataSet;
结果是 DataSet[Vector]并且不应该被收集并且在邻居方法中是必需的

我总是得到一个 FlinkRuntime Exeption:

cannot currently handle nodes with more than 64 outputs. org.apache.flink.optimizer.CompilerException: Cannot currently handle nodes with more than 64 outputs. at org.apache.flink.optimizer.dag.OptimizerNode.addOutgoingConnection(OptimizerNode.java:347) at org.apache.flink.optimizer.dag.SingleInputNode.setInput(SingleInputNode.java:202

最佳答案

Flink 目前不支持超过 64 个输入数据集的联合算子。

作为一种解决方法,您可以分层合并多达 64 个数据集,并在层次结构的各个级别之间注入(inject)一个身份映射器。
就像是:

DataSet level1a = data1.union(data2.union(data3...(data64))).map(new IDMapper());
DataSet level1b = data65.union(data66...(data128))).map(new IDMapper());
DataSet level2 = level1a.union(level1b)

关于scala - ApacheFlink 中的数据集联盟,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31616178/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com