作者热门文章
- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
创建如下所示的直接流后:
val events = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](
ssc, kafkaParams, topicsSet)
我想将上述流转换为数据帧,以便我可以对其运行配置单元查询。谁能解释一下这是如何实现的?我正在使用 spark 版本 1.3.0
最佳答案
如 Spark Streaming programming guide 中所述,试试这个:
import org.apache.spark.sql.SQLContext
object SQLContextSingleton {
@transient private var instance: SQLContext = null
// Instantiate SQLContext on demand
def getInstance(sparkContext: SparkContext): SQLContext = synchronized {
if (instance == null) {
instance = new SQLContext(sparkContext)
}
instance
}
}
case class Row(key: String, value: String)
eventss.foreachRDD { rdd =>
val sqlContext = SQLContextSingleton.getInstance(rdd.sparkContext)
import sqlContext.implicits._
val dataFrame = rdd.map {case (key, value) => Row(key, value)}.toDF()
dataFrame.show()
}
关于apache-spark - 如何将来自kafka的directstream转换为spark 1.3.0中的数据帧,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32002714/
我是一名优秀的程序员,十分优秀!