gpt4 book ai didi

hadoop - 在 map 函数中获取 sparkConf

转载 作者:可可西里 更新时间:2023-11-01 16:21:57 27 4
gpt4 key购买 nike

如何在 java spark api 的映射函数中获取 SparkConf 或 JavaSparkContext。

     SparkConf conf = new SparkConf().setAppName("Simple Application");
JavaSparkContext sc = new JavaSparkContext(conf);
JavaRDD<String>dateRDD=javaRDD.map(new Function<String, String>() {

如何在这个函数中获取这个 sparkconf 或上下文。我应该将它作为参数传递给构造函数吗?还有其他方法吗?

最佳答案

您误解了 Spark 的概念。 map 函数在一组单独的任务中执行,这些任务在单独的 JVM 线程内的执行器节点上执行。您永远不应在 map 或任何其他转换或操作中使用 SparkContext,因为按照您的方式启动 SparkContext 会启动一个一组带有执行器驱动程序的 Spark 集群,我希望这不是您的目标。

告诉我你的目标是什么,我会告诉你如何实现它

关于hadoop - 在 map 函数中获取 sparkConf,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28851379/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com