gpt4 book ai didi

java - Spark Scala脚本执行命令

转载 作者:行者123 更新时间:2023-12-02 21:35:49 26 4
gpt4 key购买 nike

我是 Spark 的新手,我有这样的Spark脚本

import org.apache.spark.SparkContext

/**

* Loading sales csv using DataFrame API

*/

object CsvDataInput {
def main(args: Array[String]) {


val sc = new SparkContext(args(0), "Csv loading example")
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
val df = sqlContext.load("com.databricks.spark.csv", Map("path" -> args(1),"header"->"true"))

df.printSchema()
df.registerTempTable("sales")

val aggDF = sqlContext.sql("select sum(amt),code from sales where tran='CHG' group by amt,code")

println(aggDF.collectAsList())
}

}

我如何在Cloudera中执行该程序
我必须使用什么命令

我用这个命令

./bin/spark-shell --class classname --master local "Scriptpath" inputpath



但我没有得到输出。

最佳答案

您可以使用spark-submit。例如

./bin/spark-submit --class classname --master local[*] "Scriptpath" inputpath

关于java - Spark Scala脚本执行命令,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32436781/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com