gpt4 book ai didi

python - 使用 Spark.xml 读取 XML 时,为什么我的数据框加载了空白值? (Python/数据 block )

转载 作者:行者123 更新时间:2023-12-01 08:37:16 25 4
gpt4 key购买 nike

我正在Python中使用spark.xml读取XML文件,并遇到了一个看似非常具体的问题。
我能够缩小 XML 中产生问题的部分,但无法缩小问题发生的原因。

以下是读取 XML 文件的代码:

src = sqlContext.read.format("com.databricks.spark.xml").options(rowTag="root").load("file.xml")

以下是使用 Spark.xml 库从 XML 读取的架构,其中 rowTag = "root":

    root
|-- AID: long (nullable = true)
|-- RID: long (nullable = true)
|-- XmlData: struct (nullable = true)
| |-- NC: struct (nullable = true)
| | |-- RS: struct (nullable = true)
| | | |-- RD: struct (nullable = true)
| | | | |-- CR: struct (nullable = true)
| | | | | |-- Addr1: string (nullable = true)
| | | | | |-- Addr2: string (nullable = true)
| | | | | |-- City: string (nullable = true)
| | | | | |-- InFile: string (nullable = true)
| | | | | |-- Name: string (nullable = true)
| | | | | |-- Phone: long (nullable = true)
| | | | | |-- State: string (nullable = true)
| | | | | |-- Zip: long (nullable = true)
| | | | |-- SC: struct (nullable = true)
| | | | | |-- Class: string (nullable = true)
| | | | | |-- ClassType: string (nullable = true)
| | | | | |-- Message: string (nullable = true)
| | | | | |-- SC: long (nullable = true)
| | | | |-- NC: long (nullable = true)
| | | | |-- CRR: string (nullable = true)
| | | | |-- RM: struct (nullable = true)
| | | | | |-- Addr1: string (nullable = true)
| | | | | |-- City: string (nullable = true)
| | | | | |-- MemberNo: string (nullable = true)
| | | | | |-- Name: string (nullable = true)
| | | | | |-- State: string (nullable = true)
| | | | | |-- Zip: long (nullable = true)
| | | | |-- TL: array (nullable = true)
| | | | | |-- element: struct (containsNull = true)
| | | | | | |-- _AvgDays: long (nullable = true)
| | | | | | |-- _Comment: string (nullable = true)
| | | | | | |-- _Current: long (nullable = true)
| | | | | | |-- _HC: long (nullable = true)
| | | | | | |-- _IndType: string (nullable = true)
| | | | | | |-- _LS: long (nullable = true)
| | | | | | |-- _OpenDate: long (nullable = true)
| | | | | | |-- _PD120Day: long (nullable = true)
| | | | | | |-- _PD30Day: long (nullable = true)
| | | | | | |-- _PD60Day: long (nullable = true)
| | | | | | |-- _PD90Day: long (nullable = true)
| | | | | | |-- _Region: string (nullable = true)
| | | | | | |-- _ReportDate: string (nullable = true)
| | | | | | |-- _SourceID: long (nullable = true)
| | | | | | |-- _TD: long (nullable = true)
| | | | | | |-- _VALUE: string (nullable = true)
| | | | |-- Trends: array (nullable = true)
| | | | | |-- element: struct (containsNull = true)
| | | | | | |-- _CurrentPct: double (nullable = true)
| | | | | | |-- _LineCnt: long (nullable = true)
| | | | | | |-- _PD120DayPct: double (nullable = true)
| | | | | | |-- _PD30DayPct: double (nullable = true)
| | | | | | |-- _PD60DayPct: double (nullable = true)
| | | | | | |-- _PD90DayPct: double (nullable = true)
| | | | | | |-- _PD: string (nullable = true)
| | | | | | |-- _TD: long (nullable = true)
| | | | | | |-- _VALUE: string (nullable = true)

此模式还有更多内容,但由于某种原因,XML 解析器无法超越这一点。我认为 XML 中的“Trends”标签存在问题,但我找不到它。

以下是“趋势”标签条目的示例:

<Trends PD="4205" LineCnt="0" TD="0" CurrentPct="0" PD30DayPct="0" PD60DayPct="0" PD90DayPct="0" PD120DayPct="0" />

据我所知,在以前版本的 XML 解析器中无法读取像这样的闭合标记,但在 Databricks 中使用它时它工作正常,并且我的其他带有闭合标记的文件也能正确读取。

下面是进一步举例说明我所解释内容的最终结果(我的 XML 中有 13 条记录):

+---------+--------+-------+
|AID |RID |XmlData|
+---------+--------+-------+
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
+---------+--------+-------+

(这个顶级 View 很好 - 我的代码稍后会迭代“XMLData”中的结构/数组 - 但这当然需要首先填充)

有谁知道为什么这会导致架构在解析时停止加载完成?

请注意,我无法显式定义架构。这将违背我正在从事的项目的目的——我必须能够动态推断模式。这对于我正在使用的其他文件来说同样适用。

最佳答案

原因:

所以我能够弄清楚为什么会发生这种情况。当您尝试转换为数据帧的 xml 具有不一致的值时,您可能会看到此问题。例如,如下所示的内容就会出现此问题:

<?xml version="1.0"?>
<Company>
<Employee id="1">
<Email>tp@xyz.com</Email>
<Measures id="id32" type="AttributesInContext">
<Dimensions value="7in" title="Height"></Dimensions>
<Dimensions value="" title="Weight"></Dimensions></Measures>
</Employee>
<Employee id="2">
<Email>tp@xyz.com</Email>
<Measures id="id33" type="AttributesInContext">
<Dimensions value="6in" title="Height"></Dimensions>
<Dimensions value="" title="Weight"></Dimensions></Measures>
</Employee>
<Employee id="3">
<Email>tp@xyz.com</Email>
<Measures id="id34" type="AttributesInContext">
<Dimensions value="4in" title="Height"></Dimensions>
<Dimensions value="" title="Weight"></Dimensions></Measures>
</Employee>
</Company>

在这里,由于每个 rowTag 条目中都有 value="",因此我们可能会在所有行的数据帧中得到 null,因为它无法推断数据类型。但是,如果您将所有 value="" 字段替换为某个实际值,您将发现不会出现此问题。

解决方案:

根据databricks link ,可以通过在读取 xml 文件时使用 option("nullValue", "") 选项来解决此问题。所以你的命令将如下所示(我在 scala 中尝试过,在 python 中应该类似):

var xmldf = sparkSession.read.format("com.databricks.spark.xml")
.option("rowTag", rootTag).option("nullValue", "").load("/path/to/xml")

关于python - 使用 Spark.xml 读取 XML 时,为什么我的数据框加载了空白值? (Python/数据 block ),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53657861/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com