gpt4 book ai didi

azure - 使用 pySpark 在 Azure Databricks 中使用来自 EventHub 的事件

转载 作者:行者123 更新时间:2023-12-04 01:57:48 26 4
gpt4 key购买 nike

我可以看到 Spark 连接器和使用 Azure Databricks 中的 Scala 从事件中心消费事件的指南。

但是,我们如何使用 pySpark 从 azure databricks 消费事件中心中的事件?

任何建议/文档详细信息都会有帮助。谢谢

最佳答案

下面是从 Azure Data-bricks 上的 pyspark 的事件中心读取事件的代码片段。

// With an entity path 
val with = "Endpoint=sb://SAMPLE;SharedAccessKeyName=KEY_NAME;SharedAccessKey=KEY;EntityPath=EVENTHUB_NAME"


# Source with default settings
connectionString = "Valid EventHubs connection string."
ehConf = {
'eventhubs.connectionString' : connectionString
}

df = spark \
.readStream \
.format("eventhubs") \
.options(**ehConf) \
.load()

readInStreamBody = df.withColumn("body", df["body"].cast("string"))
display(readInStreamBody)

关于azure - 使用 pySpark 在 Azure Databricks 中使用来自 EventHub 的事件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49369218/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com