- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试从 Azure Data Lake Gen1 读取 avro 数据,这些数据是从 Azure EventHub 生成的,并且在 Azure Databricks 中使用 pyspark 启用了 Azure 事件中心捕获:
inputdata = "evenhubscapturepath/*/*"
rawData = spark.read.format("avro").load(inputdata)
以下语句失败
rawData.count()
与
org.apache.spark.SparkException: Job aborted due to stage failure: Task 162 in stage 48.0 failed 4 times, most recent failure: Lost task 162.3 in stage 48.0 (TID 2807, 10.3.2.4, executor 1): java.io.IOException: Not an Avro data file
EventHub-Capture 是否正在写入非 Avro 数据?是否有使用 Spark 读取 EventHub 捕获的数据的最佳实践?
最佳答案
实现冷摄取路径的一种模式是使用 Event Hubs Capture 。 EventHubs 捕获按照windowing parameters 的定义为每个分区写入一个文件。 。数据以 avro 格式写入,可以使用 Apache Spark 进行分析。
那么使用此功能的最佳实践是什么?
<强>1。不要过度分区
我经常看到人们使用默认配置,最终常常会产生许多小文件。如果您想使用 Spark 使用通过 EventHubs Capture 摄取的数据,请记住 file sizes in Azure Data Lake Store 的最佳实践。和 partitions与 Spark 。文件大小应约为 256 MB,分区应在 10 到 50 GB 之间。因此,最终配置取决于您正在使用的消息的数量和大小。在大多数情况下,您只需按摄取日期对数据进行分区就可以了。
<强>2。选中“不发出空文件选项”
您应该选中“不发出空文件选项”。如果想用Spark来消费数据,可以节省不必要的文件操作。
<强>3。使用文件路径中的数据源
使用流式架构,您的 EventHub 就相当于面向批处理的架构方法中的着陆区。因此,您将在原始数据层中摄取数据。良好的做法是在目录路径中使用数据源而不是 EventHub 的名称。例如,如果您从工厂的机器人获取遥测数据,这可能是目录路径 /raw/robots/
存储命名需要使用所有属性,例如 {Namesapce}、{PartitionId}。因此,最终,具有明确定义的路径、每日分区以及使用 Azure Data Lake Gen 2 中文件名的其余属性的良好捕获文件格式定义可能如下所示:
/raw/robots/ingest_date={Year}-{Month}-{Day}/{Hour}{Minute}{Second}-{Namespace}-{EventHub}-{PartitionId}
<强>4。考虑压实工作
捕获的数据未压缩,并且在您的用例中也可能最终形成小文件(因为最小写入频率为 15 分钟)。因此,如果有必要,请编写每天运行一次的压缩作业。类似的东西
df.repartition(5).write.format("avro").save(targetpath)
将完成这项工作。
那么现在读取捕获数据的最佳实践是什么?
<强>5。忽略读取数据的非 avro 文件
Azure EventHubs Capture 将临时数据写入 Azure Data Lake Gen1。最佳实践是仅使用 avro 扩展名读取数据。您可以通过 Spark 配置轻松实现此目的:
spark.conf.set("avro.mapred.ignore.inputs.without.extension", "true")
<强>6。只读取相关分区
考虑仅读取相关分区,例如。 G。过滤当前摄取日。
<强>7。使用共享元数据
读取捕获的数据的工作方式与直接从 Azure EventHub 读取数据类似。所以你必须有一个模式。假设您还有使用 Spark 结构化流直接读取数据的作业,一个好的模式是存储元数据并共享它。您可以将此元数据存储在 Data Lake Store json 文件中:
[{"MeasurementTS":"timestamp","Location":"string", "Temperature":"double"}]
然后用这个 simple parsing function 来阅读它:
# parse the metadata to get the schema
from collections import OrderedDict
from pyspark.sql.types import *
import json
ds = dbutils.fs.head (metadata) # read metadata file
items = (json
.JSONDecoder(object_pairs_hook=OrderedDict)
.decode(ds)[0].items())
#Schema mapping
mapping = {"string": StringType, "integer": IntegerType, "double" : DoubleType, "timestamp" : TimestampType, "boolean" : BooleanType}
schema = StructType([
StructField(k, mapping.get(v.lower())(), True) for (k, v) in items])
所以你可以重用你的架构:
from pyspark.sql.functions import *
parsedData = spark.read.format("avro").load(rawpath). \
selectExpr("EnqueuedTimeUtc", "cast(Body as string) as json") \
.select("EnqueuedTimeUtc", from_json("json", schema=Schema).alias("data")) \
.select("EnqueuedTimeUtc", "data.*")
关于azure - 使用 Databricks 从 Azure EventHubs Capture 生成的 Azure Data Lake Gen1 读取 avro 数据失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59127077/
只是想知道这些结构之间有什么区别(text、data、rodata、bss 等)在链接描述文件中: .data : { *(.data) } .data : { *(.data*) }
Data 定义为其核心功能之一 gfoldl : gfoldl :: (Data a) => (forall d b. Data d => c (d -> b) -> d -> c b)
以下之间有什么区别:data-sly-use、data-sly-resource、data-sly-include 和 数据-sly-模板?我正在阅读 Sightly AEM 上的文档,我非常困惑。
我有一个 Spring Boot、Spring Data JPA (hibernate) Web 应用程序,并且想引入文本搜索功能。 我理解以下内容 hibernate search 或 spring
我不知道我的代码有什么问题。我读了其他有同样问题的人的一些问题,但没有找到答案。当我尝试编译时出现以下错误: ||In function 'main':| |35|error: expected ex
我不太确定为什么会收到此错误或其含义。我的数据框称为“数据”。 library(dplyr) data %>% filter(Info==1, Male==1) %>% lm(CFL_
我一直在 GitHub 等更现代的网站上看到这些属性,它们似乎总是与自定义的弹出窗口一致,如 title 属性。 Option 1 Option 2 Option 3 Option 4 我在 HTML
如何用 iCloud Core Data 替换我现有的 Core Data?这是我的持久商店协调员: lazy var persistentStoreCoordinator: NSPersistent
我一直在 GitHub 等更现代的网站上看到这些属性,它们似乎总是与自定义的弹出窗口一致,如 title 属性。 Option 1 Option 2 Option 3 Option 4 我在 HTML
我正在通过 this project 在 Android 上摆弄 node.js ,我需要一种方法将 js 文件部署到私有(private)目录(以隐藏源代码,防止用户篡改),该目录也物理存在于文件系
大家好我有点沮丧,所以我希望得到一些帮助。我的项目在 SwiftUI 中。我想使用图像选择器将图像保存到 Core Data。我实现了让 ImagePicker 工作,但我正在努力转换 Image -
我有以下数据和代码: mydf grp categ condition value 1 A X P 2 2 B X P 5
我一直在努力解决这个问题,但我根本找不到任何解决问题的方法。希望这里有人可以提供帮助。 我正在尝试为具有以下结构的某些数据创建个人选择矩阵: # A tibble: 2,152 x 32 a
我了解 Data.Map.Lazy 和 Data.Map.Strict 是不同的。但是,当您导入 Data.Map 时,您究竟导入了什么:严格的、惰性的还是两者的组合? 最佳答案 懒人。看着docs
我正在开发一个 C 程序,用于从 BerkeleyDB DBTree 数据库中提取数据值与特定模式匹配的记录。我创建数据库,打开它,将键的 DBT 和数据的另一个 DBT 清零,将 DBT 标志设置为
所以我有以下成员(member)历史表 User_ID | Start date | End Date | Type(0-7) | ---------------------------
随着最近推出的包dataframe ,我认为是时候正确地对各种数据结构进行基准测试,并突出每种数据结构的优势。我不是每个人的不同优势的专家,所以我的问题是,我们应该如何对它们进行基准测试。 我尝试过的
我有来自 API 的数据,但无法将数组中的数据设置为 vue.js 中的 this.data这是来自 API 的数据(JSON) 你能告诉我这个语法吗 {"id":1613, "name_org":"
在 Vue.js到目前为止,我已经找到了两种定义数据的方法:data: {} 和 data() { return; }. data: { defaultLayout: 'default' }
我正在研究Spring Data Rest Services,并在自定义拦截器中遇到一些问题。之前我使用spring-data-rest-webmvc 2.2.0并以以下方式添加了拦截器。 publi
我是一名优秀的程序员,十分优秀!