gpt4 book ai didi

scala - 如何在 Intellij IDEA 上调试基于 Scala 的 Spark 程序

转载 作者:行者123 更新时间:2023-12-04 01:37:44 24 4
gpt4 key购买 nike

我目前正在使用 Intellij IDEA 构建我的开发 IDE。我遵循与 http://spark.apache.org/docs/latest/quick-start.html 完全相同的方式

build.sbt 文件

name := "Simple Project"

version := "1.0"

scalaVersion := "2.11.7"

libraryDependencies += "org.apache.spark" %% "spark-core" % "2.0.0"

示例程序文件
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

object MySpark {

def main(args: Array[String]){
val logFile = "/IdeaProjects/hello/testfile.txt"
val conf = new SparkConf().setAppName("Simple Application")
val sc = new SparkContext(conf)
val logData = sc.textFile(logFile, 2).cache()
val numAs = logData.filter(line => line.contains("a")).count()
val numBs = logData.filter(line => line.contains("b")).count()
println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
}
}

如果我使用命令行:
sbt package

进而
spark-submit --class "MySpark" --master local[4] target/scala-2.11/myspark_2.11-1.0.jar

我能够生成 jar 包并且 spark 运行良好。

但是,我想使用Intellij IDEA在IDE中调试程序。如何设置配置,以便如果我单击“调试”,它会自动生成 jar 包并通过执行“spark-submit-”命令行自动启动任务。

我只是希望一切都可以像 Intellij IDEA 中的调试按钮上的“一键单击”一样简单。

谢谢。

最佳答案

首先定义如下环境变量

export SPARK_SUBMIT_OPTS=-agentlib:jdwp=transport=dt_socket,server=y,suspend=y,address=7777 
然后在Intellij Idea中创建Debug配置如下
擦 -> 编辑配置 -> 点击左上角的“+” -> 远程 -> 设置端口和名称
在上述配置之后,使用 spark-submit 或 sbt run 运行 spark 应用程序,然后运行在配置中创建的调试。并添加调试检查点。

关于scala - 如何在 Intellij IDEA 上调试基于 Scala 的 Spark 程序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39885281/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com