gpt4 book ai didi

azure - 在 Azure Databricks 中反序列化事件中心消息

转载 作者:行者123 更新时间:2023-12-03 09:24:30 25 4
gpt4 key购买 nike

我有一个 Python 中的 Azure Databricks 脚本,它使用结构化流从事件中心读取 JSON 消息,处理消息并将结果保存在 Data Lake Store 中。消息从 Azure 逻辑应用发送到事件中心,该应用从 Twitter API 读取推文。

我正在尝试反序列化事件中心消息的正文,以便处理其内容。消息正文首先从二进制转换为字符串值,然后使用 from_json 函数反序列化为结构类型,如本文所述:https://databricks.com/blog/2017/02/23/working-complex-data-formats-structured-streaming-apache-spark-2-1.html

这是一个代码示例(参数困惑):

from pyspark.sql.functions import from_json, to_json
from pyspark.sql.types import DateType, StringType, StructType

EVENT_HUB_CONN_STRING = 'Endpoint=sb://myehnamespace.servicebus.windows.net/;SharedAccessKeyName=Listen;SharedAccessKey=xxx;EntityPath=myeh'
OUTPUT_DIR = '/mnt/DataLake/output'
CHECKPOINT_DIR = '/mnt/DataLake/checkpoint'

event_hub_conf = {
'eventhubs.connectionString' : EVENT_HUB_CONN_STRING
}

stream_data = spark \
.readStream \
.format('eventhubs') \
.options(**event_hub_conf) \
.option('multiLine', True) \
.option('mode', 'PERMISSIVE') \
.load()

schema = StructType() \
.add('FetchTimestampUtc', DateType()) \
.add('Username', StringType()) \
.add('Name', StringType()) \
.add('TweetedBy', StringType()) \
.add('Location', StringType()) \
.add('TweetText', StringType())

stream_data_body = stream_data \
.select(stream_data.body) \
.select(from_json('body', schema).alias('body')) \
.select(to_json('body').alias('body'))

# This works (bare string value, no deserialization):
# stream_data_body = stream_data.select(stream_data.body)

stream_data_body \
.writeStream \
.outputMode('append') \
.format('json') \
.option('path', OUTPUT_DIR) \
.option('checkpointLocation', CHECKPOINT_DIR) \
.start() \
.awaitTermination()

这里我实际上还没有进行任何处理,只是进行了简单的反序列化/序列化。

上述脚本确实会向 Data Lake 生成输出,但结果 JSON 对象为空。以下是输出示例:

{}
{}
{}

脚本中的注释代码确实会产生输出,但这只是字符串值,因为我们没有包含反序列化:

{"body":"{\"FetchTimestampUtc\": 2018-10-16T09:21:40.6173187Z, \"Username\": ... }}

我想知道反斜杠是否应该加倍,如上面链接中给出的示例所示?这可以通过 from_json 函数的 options 参数来实现:“控制解析的选项。接受与 json 数据源相同的选项。”但我还没有找到选项格式的文档。

有什么想法为什么反序列化/序列化不起作用?

最佳答案

看来输入 JSON 必须具有特定的语法。字段值必须是字符串,不允许使用时间戳(整数、 float 等可能也是如此)。类型转换必须在 Databricks 脚本内完成。

我更改了输入 JSON,以便引用时间戳值。在架构中,我还将 DateType 更改为 TimestampType (更合适),而不是 StringType

通过使用以下选择表达式:

stream_data_body = stream_data \
.select(from_json(stream_data.body.cast('string'), schema).alias('body')) \
.select(to_json('body').alias('body'))

输出文件中产生以下输出:

{"body":"{\"FetchTimestampUtc\":\"2018-11-29T21:26:40.039Z\",\"Username\":\"xyz\",\"Name\":\"x\",\"TweetedBy\":\"xyz\",\"Location\":\"\",\"TweetText\":\"RT @z123: I just want to say thanks to everyone who interacts with me, whether they talk or they just silently rt or like, thats okay.…\"}"}

这是预期的结果,尽管时间戳值作为字符串值输出。事实上,整个 body 对象都是作为字符串输出的。

如果输入格式是具有 native 字段类型的正确 JSON,我无法使摄取正常工作。在这种情况下,from_json 的输出始终为 null。

编辑:这对我来说似乎很困惑。日期值应始终在 JSON 中引用,它们不是“ native ”类型。

我已经测试过整数和浮点值可以不带引号传递,以便可以用它们进行计算。

关于azure - 在 Azure Databricks 中反序列化事件中心消息,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52833053/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com