- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试从 pandas 数据帧创建 Spark 数据帧。我正在基于由数组的结构类型和结构字段组成的模式构建模式。以下是示例架构:
mySchema = (
StructType(
[
StructField("country_code", StringType(), True),
StructField("unit_id", StringType(), True),
StructField("date", DateType(), True),
StructField("health_category_car_door", StringType(), True),
StructField("reason_car", StringType(), True),
StructField("reason_landing", StringType(), True),
StructField(
"reasonDetails_car_door",
StructType(
[
StructField(
"car_doors",
ArrayType(
StructType(
[
StructField("opmode", StringType(), True),
StructField("count", IntegerType(), True),
StructField(
"window_length", IntegerType(), True
),
]
),
True,
),
True,
),
StructField("landing_doors", StringType(), True),
]
),
True,
),
]
),
StructField("health_category_landing_door", StringType(), True),
StructField("num_yellow_preds_in_last_14_days", IntegerType(), True),
StructField(
"reasonDetails_landing_door",
ArrayType(
StructType(
[
StructField("id", StringType(), True),
StructField(
"causes",
ArrayType(
StructType(
[
StructField("opmode", StringType(), True),
StructField("count", IntegerType(), True),
StructField("window_length", IntegerType(), True),
]
),
True,
),
True,
),
StructField(
"num_yellow_preds_in_last_14_days", IntegerType(), True
),
]
),
True,
),
),
)
sparkDF = spark.createDataFrame(df_new, mySchema)
sparkDF.printSchema()
它给出了错误。
/databricks/spark/python/pyspark/sql/session.py in createDataFrame(self, data, schema, samplingRatio, verifySchema)
938 elif isinstance(schema, (list, tuple)):
939 # Must re-encode any unicode strings to be consistent with StructField names
--> 940 schema = [x.encode("utf-8") if not isinstance(x, str) else x for x in schema]
941
942 try:
在调试时,我确实了解架构需要按照文章(Pyspark error on creating dataframe: 'StructField' object has no attribute 'encode')中所述进行更新,但无法理解我需要如何更新架构。任何人都可以指导吗?
最佳答案
我相信你使用df = pd.DataFrame(json.loads(<your_data>))
基于这些数据创建 pandas 数据框并将其转换为 Spark 提供架构。
我已经尝试过这个,即使我遇到了和你一样的错误。
出现此错误的原因是架构应为 StructType
有StructField
.
在你的模式中,如果你清楚地观察到一些StructField
已超出 StructType
.
您可以使用下面的架构,我尝试查看 pandas 数据框中的数据。
在这里,您可以看到 landing_doors 、 car_doors 是行名称,而 reasonDetails_car_door 、 reasonDetails_landing_door 是列表类型或数组。
所以,我修改了架构如下并尝试,它成功了。
import pandas as pd
import json
from pyspark.sql.types import StructType, StructField, StringType, IntegerType,ArrayType,DateType,MapType,LongType
data = '{"country_code":"xxx","unit_id":"xxx","date":1691280000000,"health_category_car_door":"xxx",
"num_yellow_preds_in_last_14_days":10,
"reasonDetails_car_door":{"landing_doors":null,"car_doors":[{"opmode":"xxx","count":10,"window_length":1}]},"reason_car":"High count","health_category_landing_door":"xxxx",
"reasonDetails_landing_door":{"car_doors":null,"landing_doors":[{"id":"xx","causes":[{"opmode":"xxx","count":1,"window_length":14},{"opmode":"xxx","count":10,"window_length":1}],"num_yellow_preds_in_last_14_days":1}]},
"reason_landing":"High count."}'
sc = StructType([
StructField('country_code', StringType(), True),
StructField('unit_id', StringType(), True),
StructField('date', LongType(), True),
StructField('health_category_car_door', StringType(), True),
StructField('num_yellow_preds_in_last_14_days', LongType(), True),
StructField('reasonDetails_car_door',
ArrayType(
StructType([
StructField('count', LongType(), True),
StructField('opmode', StringType(), True),
StructField('window_length', LongType(), True)]),True),True),
StructField('reason_car', StringType(), True),
StructField('health_category_landing_door', StringType(), True),
StructField('reasonDetails_landing_door',
ArrayType(
StructType([
StructField('causes',
ArrayType(
StructType([
StructField('count', LongType(), True),
StructField('opmode', StringType(), True),
StructField('window_length', LongType(), True)]),True),True),
StructField('id', StringType(), True),
StructField('num_yellow_preds_in_last_14_days', LongType(), True)]),True),True),
StructField('reason_landing', StringType(), True)])
json_data = json.loads(data)
sparkDF = spark.createDataFrame(pd.DataFrame(json_data),sc)
sparkDF.printSchema()
输出:
或者您可以在不使用 pandas 的情况下创建 Spark 数据框,并提供如下架构。
from pyspark.sql.types import StructType, StructField, StringType, IntegerType,ArrayType,DateType,MapType,LongType
mySchema = StructType([
StructField("country_code", StringType(), True),
StructField("unit_id", StringType(), True),
StructField("date", StringType(), True),
StructField("health_category_car_door", StringType(), True),
StructField("reason_car", StringType(), True),
StructField("reason_landing", StringType(), True),
StructField(
"reasonDetails_car_door",
MapType(StringType(),
ArrayType(StructType([
StructField("opmode", StringType(), True),
StructField("count", IntegerType(), True),
StructField("window_length", IntegerType(), True),]),True,)),True),
StructField("health_category_landing_door", StringType(), True),
StructField("num_yellow_preds_in_last_14_days", IntegerType(), True),
StructField("reasonDetails_landing_door",
MapType(StringType(),
ArrayType(StructType([
StructField("id", StringType(), True),
StructField("causes",ArrayType(StructType([
StructField("opmode", StringType(), True),
StructField("count", IntegerType(), True),
StructField("window_length", IntegerType(), True)]),True),True),
StructField("num_yellow_preds_in_last_14_days", IntegerType(), True)]),True)),)
])
json_data = json.loads(data)
sparkDF = spark.createDataFrame(data=[json_data], schema=mySchema)
display(sparkDF)
sparkDF.printSchema()
输出:
关于pandas - 属性错误: 'StructType' object has no attribute 'encode' ,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/76919263/
pandas.crosstab 和 Pandas 数据透视表似乎都提供了完全相同的功能。有什么不同吗? 最佳答案 pivot_table没有 normalize争论,不幸的是。 在 crosstab
我能找到的最接近的答案似乎太复杂:How I can create an interval column in pandas? 如果我有一个如下所示的 pandas 数据框: +-------+ |
这是我用来将某一行的一列值移动到同一行的另一列的当前代码: #Move 2014/15 column ValB to column ValA df.loc[(df.Survey_year == 201
我有一个以下格式的 Pandas 数据框: df = pd.DataFrame({'a' : [0,1,2,3,4,5,6], 'b' : [-0.5, 0.0, 1.0, 1.2, 1.4,
所以我有这两个数据框,我想得到一个新的数据框,它由两个数据框的行的克罗内克积组成。正确的做法是什么? 举个例子:数据框1 c1 c2 0 10 100 1 11 110 2 12
TL;DR:在 pandas 中,如何绘制条形图以使其 x 轴刻度标签看起来像折线图? 我制作了一个间隔均匀的时间序列(每天一个项目),并且可以像这样很好地绘制它: intensity[350:450
我有以下两个时间列,“Time1”和“Time2”。我必须计算 Pandas 中的“差异”列,即 (Time2-Time1): Time1 Time2
从这个 df 去的正确方法是什么: >>> df=pd.DataFrame({'a':['jeff','bob','jill'], 'b':['bob','jeff','mike']}) >>> df
我想按周从 Pandas 框架中的列中累积计算唯一值。例如,假设我有这样的数据: df = pd.DataFrame({'user_id':[1,1,1,2,2,2],'week':[1,1,2,1,
数据透视表的表示形式看起来不像我在寻找的东西,更具体地说,结果行的顺序。 我不知道如何以正确的方式进行更改。 df示例: test_df = pd.DataFrame({'name':['name_1
我有一个数据框,如下所示。 Category Actual Predicted 1 1 1 1 0
我有一个 df,如下所示。 df: ID open_date limit 1 2020-06-03 100 1 2020-06-23 500
我有一个 df ,其中包含与唯一值关联的各种字符串。对于这些唯一值,我想删除不等于单独列表的行,最后一行除外。 下面使用 Label 中的各种字符串值与 Item 相关联.所以对于每个唯一的 Item
考虑以下具有相同名称的列的数据框(显然,这确实发生了,目前我有一个像这样的数据集!:() >>> df = pd.DataFrame({"a":range(10,15),"b":range(5,10)
我在 Pandas 中有一个 DF,它看起来像: Letters Numbers A 1 A 3 A 2 A 1 B 1 B 2
如何减去两列之间的时间并将其转换为分钟 Date Time Ordered Time Delivered 0 1/11/19 9:25:00 am 10:58:00 am
我试图理解 pandas 中的下/上百分位数计算,但有点困惑。这是它的示例代码和输出。 test = pd.Series([7, 15, 36, 39, 40, 41]) test.describe(
我有一个多索引数据框,如下所示: TQ bought HT Detailed Instru
我需要从包含值“低”,“中”或“高”的数据框列创建直方图。当我尝试执行通常的df.column.hist()时,出现以下错误。 ex3.Severity.value_counts() Out[85]:
我试图根据另一列的长度对一列进行子串,但结果集是 NaN .我究竟做错了什么? import pandas as pd df = pd.DataFrame([['abcdefghi','xyz'],
我是一名优秀的程序员,十分优秀!