gpt4 book ai didi

apache-spark - Spark 作业服务器的 Spark SQL 作业中的错误 "Invalid job type for this context"

转载 作者:行者123 更新时间:2023-12-04 04:09:05 24 4
gpt4 key购买 nike

我使用 spark 作业服务器创建了一个 spark SQL 作业,并按照以下示例使用 HiveContext:
https://github.com/spark-jobserver/spark-jobserver/blob/master/job-server-extras/src/spark.jobserver/HiveTestJob.scala

我能够启动服务器,但是当我运行我的应用程序(我的 Scala 类
它扩展了 SparkSqlJob),我得到以下响应:

{
"status": "ERROR",

"result": "Invalid job type for this context"
}

任何人都可以建议我出了什么问题或提供详细的程序
为 SparkSQL 设置作业服务器?

代码如下:
import com.typesafe.config.{Config, ConfigFactory}
import org.apache.spark._
import org.apache.spark.sql.hive.HiveContext
import spark.jobserver.{SparkJobValid, SparkJobValidation, SparkHiveJob}

object newHiveRest extends SparkHiveJob {


def validate(hive: HiveContext, config: Config): SparkJobValidation = SparkJobValid

def runJob(hive: HiveContext, config: Config): Any = {

hive.sql(s"use default")
val maxRdd = hive.sql(s"select count(*) from 'default'.'passenger'")

maxRdd.count()
}
}

最佳答案

关于apache-spark - Spark 作业服务器的 Spark SQL 作业中的错误 "Invalid job type for this context",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35032545/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com