- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想采用任意一组模式并将它们组合成一个数据集,以后可以取消透视。最稳定的方法是什么?
假设我有数十个具有不同架构的输入。这些都有不同的列,实际上意味着相同的东西,它们只是没有相同的名称。
修复列名称后,我想创建作为这些列集合的输出,即动态旋转。我希望我的输入组合在一起后有一个单一的模式,我可以在以后做这个动态旋转。
我真的不想遍历并克隆输入或创建数百个中间数据集,那么我最好怎么做呢?
最佳答案
可用于协调任意数据集架构的一种策略是使用单元级技术,在该技术中,您制作一个长数据集,记录每个单元格的内容。
我们的策略归结为以下几点:
注意:我们采用此策略而不是使用一堆 .withColumn
调用(我们直接重命名数据帧的列)的原因是允许在我们的管道下游进行更多动态的反旋转。
如果我们想象下游的消费者可能想要描述他们自己的别名规则或列组合,我们需要一个包含所有单元格、列和原始行号的长数据集以从中提取。
如果我们不需要动态旋转,采用每个输入数据集并重命名列的更简单策略就可以了。
我们创建示例 DataFrame 的设置如下所示:
from pyspark.sql import types as T, functions as F, window, SparkSession
spark = SparkSession.builder.getOrCreate()
# Synthesize DataFrames
schema1 = T.StructType([
T.StructField("col_1_alias_1", T.StringType(), False),
T.StructField("col_2", T.IntegerType(), False),
T.StructField("col_3", T.StringType(), False),
T.StructField("col_4", T.IntegerType(), False),
])
data1 = [
{"col_1_alias_1": "key_1", "col_2": 1, "col_3": "CREATE", "col_4": 0},
{"col_1_alias_1": "key_2", "col_2": 2, "col_3": "CREATE", "col_4": 0},
{"col_1_alias_1": "key_3", "col_2": 3, "col_3": "CREATE", "col_4": 0},
{"col_1_alias_1": "key_1", "col_2": 1, "col_3": "UPDATE", "col_4": 1},
{"col_1_alias_1": "key_2", "col_2": 2, "col_3": "UPDATE", "col_4": 1},
{"col_1_alias_1": "key_1", "col_2": 1, "col_3": "DELETE", "col_4": 2},
]
df1 = spark.createDataFrame(data1, schema1)
df1 = df1.withColumn("origin", F.lit("df1"))
schema2 = T.StructType([
T.StructField("col_1_alias_2", T.StringType(), False),
T.StructField("col_2", T.IntegerType(), False),
T.StructField("col_3", T.StringType(), False),
T.StructField("col_4", T.IntegerType(), False),
])
data2 = [
{"col_1_alias_2": "key_1", "col_2": 1, "col_3": "CREATE", "col_4": 0},
{"col_1_alias_2": "key_2", "col_2": 2, "col_3": "CREATE", "col_4": 0},
{"col_1_alias_2": "key_3", "col_2": 3, "col_3": "CREATE", "col_4": 0},
{"col_1_alias_2": "key_1", "col_2": 1, "col_3": "UPDATE", "col_4": 1},
{"col_1_alias_2": "key_2", "col_2": 2, "col_3": "UPDATE", "col_4": 1},
{"col_1_alias_2": "key_1", "col_2": 1, "col_3": "DELETE", "col_4": 2},
]
df2 = spark.createDataFrame(data2, schema2)
df2 = df2.withColumn("origin", F.lit("df2"))
注意:我们会跟踪 DataFrame 的来源,这样当我们逆透视时,我们不会不小心将同一行的两个不同来源的数据拉到同一行中。即 df1 的第 0 行和 df2 的第 0 行应该在输出中显示为两个单独的行。为此,我们跟踪一行的来源
我们首先要跟踪数据集的行号,以便将相应的单元格放在一起。
注意:请勿使用“裸窗口”(无分区列),即在此处调用 Window.partitionBy()
。这样做将导致一个任务执行整个 DataFrame 的 row_number 计算。如果你的 DataFrame 很大,这个将导致 OOM 并且您的构建无法很好地扩展。我们在这里选择使用较低级别的函数 zipWithIndex,虽然不太优雅,但可扩展性更好。
def create_index(df):
schema_in = df.columns
indexed = df.rdd.zipWithIndex().toDF().select(
F.col("_2").alias("index"),
*[
F.col("_1").getItem(x).alias(x) for x in schema_in
]
)
return indexed
indexed1 = create_index(df1)
indexed1.show()
"""
+-----+-------------+-----+------+-----+------+
|index|col_1_alias_1|col_2| col_3|col_4|origin|
+-----+-------------+-----+------+-----+------+
| 0| key_1| 1|CREATE| 0| df1|
| 1| key_2| 2|CREATE| 0| df1|
| 2| key_3| 3|CREATE| 0| df1|
| 3| key_1| 1|UPDATE| 1| df1|
| 4| key_2| 2|UPDATE| 1| df1|
| 5| key_1| 1|DELETE| 2| df1|
+-----+-------------+-----+------+-----+------+
"""
indexed2 = create_index(df2)
indexed2.show()
"""
+-----+-------------+-----+------+-----+------+
|index|col_1_alias_2|col_2| col_3|col_4|origin|
+-----+-------------+-----+------+-----+------+
| 0| key_1| 1|CREATE| 0| df2|
| 1| key_2| 2|CREATE| 0| df2|
| 2| key_3| 3|CREATE| 0| df2|
| 3| key_1| 1|UPDATE| 1| df2|
| 4| key_2| 2|UPDATE| 1| df2|
| 5| key_1| 1|DELETE| 2| df2|
+-----+-------------+-----+------+-----+------+
"""
我们可以使用 melt 创建另一个数据集技术。方便的是,transforms.verbs
包(默认导入到您的存储库中)有一个实用方法 transforms.verbs.unpivot
,它具有您可以使用的等效实现。
from transforms.verbs import unpivot
unpivoted1 = unpivot(indexed1, id_vars=["index", "origin"], value_vars=indexed1.columns)
unpivoted1.show()
"""
+-----+------+-------------+------+
|index|origin| variable| value|
+-----+------+-------------+------+
| 0| df1| index| 0|
| 0| df1|col_1_alias_1| key_1|
| 0| df1| col_2| 1|
| 0| df1| col_3|CREATE|
| 0| df1| col_4| 0|
| 0| df1| origin| df1|
| 1| df1| index| 1|
| 1| df1|col_1_alias_1| key_2|
| 1| df1| col_2| 2|
| 1| df1| col_3|CREATE|
| 1| df1| col_4| 0|
| 1| df1| origin| df1|
| 2| df1| index| 2|
| 2| df1|col_1_alias_1| key_3|
| 2| df1| col_2| 3|
| 2| df1| col_3|CREATE|
| 2| df1| col_4| 0|
| 2| df1| origin| df1|
| 3| df1| index| 3|
| 3| df1|col_1_alias_1| key_1|
+-----+------+-------------+------+
...
"""
unpivoted2 = unpivot(indexed2, id_vars=["index", "origin"], value_vars=indexed2.columns)
unpivoted2.show()
"""
+-----+------+-------------+------+
|index|origin| variable| value|
+-----+------+-------------+------+
| 0| df2| index| 0|
| 0| df2|col_1_alias_2| key_1|
| 0| df2| col_2| 1|
| 0| df2| col_3|CREATE|
| 0| df2| col_4| 0|
| 0| df2| origin| df2|
| 1| df2| index| 1|
| 1| df2|col_1_alias_2| key_2|
| 1| df2| col_2| 2|
| 1| df2| col_3|CREATE|
| 1| df2| col_4| 0|
| 1| df2| origin| df2|
| 2| df2| index| 2|
| 2| df2|col_1_alias_2| key_3|
| 2| df2| col_2| 3|
| 2| df2| col_3|CREATE|
| 2| df2| col_4| 0|
| 2| df2| origin| df2|
| 3| df2| index| 3|
| 3| df2|col_1_alias_2| key_1|
+-----+------+-------------+------+
...
"""
这部分很简单,只需将您的 DataFrame 堆叠在一起即可。如果您有很多,请使用 transforms.verbs.dataframes.union_many
all_dfs = unpivoted1.unionByName(unpivoted2)
下一部分有点密集。
我们想要更改注释列的行的值,这意味着相同的事情,所以我们想要构建一个 case 语句,用于用别名替换它们的最终名称。
为此,我们需要一个大的 case 语句,这是通过将 .when()
语句堆叠在一起来完成的。
我们可以选择在 for() 循环之外创建一个 None
变量并检测第一次迭代 + 直接赋值,但在这种情况下我们可以简单地使用 pyspark.sql.functions
直接作为第一个“when”语句导入。这让我们可以将 when 调用放在彼此之上,然后是最后的“否则”,我们就地使用列名。这让我们可以高效地遍历每一行并确定它包含的列是否是需要重命名的别名。
alias_dictionary = {
"col_1": ["col_1_alias_1", "col_1_alias_2"]
}
when_statement = F
for alias_key, alias_list in alias_dictionary.items():
# For each alias, if the row we are on is a cell that needs to be aliased,
# i.e. it isin() a list, then we rename it to the alias. Otherwise we
# leave it alone and will use the final .otherwise() outside the loop
when_statement = when_statement.when(
F.col("variable").isin(alias_list), alias_key
)
when_statement = when_statement.otherwise(F.col("variable"))
# Replace the column names with their aliases
all_dfs = all_dfs.withColumn("variable", when_statement)
all_dfs.show()
"""
+-----+------+--------+------+
|index|origin|variable| value|
+-----+------+--------+------+
| 0| df1| index| 0|
| 0| df1| col_1| key_1|
| 0| df1| col_2| 1|
| 0| df1| col_3|CREATE|
| 0| df1| col_4| 0|
| 0| df1| origin| df1|
| 1| df1| index| 1|
| 1| df1| col_1| key_2|
| 1| df1| col_2| 2|
| 1| df1| col_3|CREATE|
| 1| df1| col_4| 0|
| 1| df1| origin| df1|
| 2| df1| index| 2|
| 2| df1| col_1| key_3|
| 2| df1| col_2| 3|
| 2| df1| col_3|CREATE|
| 2| df1| col_4| 0|
| 2| df1| origin| df1|
| 3| df1| index| 3|
| 3| df1| col_1| key_1|
+-----+------+--------+------+
...
"""
最后,我们按每一行分组,将行转回列,取找到的值,瞧!
pivoted = all_dfs.groupBy( # for each original row...
"index", "origin"
).pivot( # pivot the rows back to columns...
"variable"
).agg( # don't perform any calculations, just take the cell...
F.first("value")
).orderBy( # for printing reasons, order by the original row number...
"index", "origin"
).drop( # and remove the index
"index", "origin"
)
pivoted.show()
"""
+-----+-----+------+-----+
|col_1|col_2| col_3|col_4|
+-----+-----+------+-----+
|key_1| 1|CREATE| 0|
|key_1| 1|CREATE| 0|
|key_2| 2|CREATE| 0|
|key_2| 2|CREATE| 0|
|key_3| 3|CREATE| 0|
|key_3| 3|CREATE| 0|
|key_1| 1|UPDATE| 1|
|key_1| 1|UPDATE| 1|
|key_2| 2|UPDATE| 1|
|key_2| 2|UPDATE| 1|
|key_1| 1|DELETE| 2|
|key_1| 1|DELETE| 2|
+-----+-----+------+-----+
"""
关于palantir-foundry - 如何将许多不同的模式联合到一个输出中,以便稍后动态转换?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/69846562/
我需要将文本放在 中在一个 Div 中,在另一个 Div 中,在另一个 Div 中。所以这是它的样子: #document Change PIN
奇怪的事情发生了。 我有一个基本的 html 代码。 html,头部, body 。(因为我收到了一些反对票,这里是完整的代码) 这是我的CSS: html { backgroun
我正在尝试将 Assets 中的一组图像加载到 UICollectionview 中存在的 ImageView 中,但每当我运行应用程序时它都会显示错误。而且也没有显示图像。 我在ViewDidLoa
我需要根据带参数的 perl 脚本的输出更改一些环境变量。在 tcsh 中,我可以使用别名命令来评估 perl 脚本的输出。 tcsh: alias setsdk 'eval `/localhome/
我使用 Windows 身份验证创建了一个新的 Blazor(服务器端)应用程序,并使用 IIS Express 运行它。它将显示一条消息“Hello Domain\User!”来自右上方的以下 Ra
这是我的方法 void login(Event event);我想知道 Kotlin 中应该如何 最佳答案 在 Kotlin 中通配符运算符是 * 。它指示编译器它是未知的,但一旦知道,就不会有其他类
看下面的代码 for story in book if story.title.length < 140 - var story
我正在尝试用 C 语言学习字符串处理。我写了一个程序,它存储了一些音乐轨道,并帮助用户检查他/她想到的歌曲是否存在于存储的轨道中。这是通过要求用户输入一串字符来完成的。然后程序使用 strstr()
我正在学习 sscanf 并遇到如下格式字符串: sscanf("%[^:]:%[^*=]%*[*=]%n",a,b,&c); 我理解 %[^:] 部分意味着扫描直到遇到 ':' 并将其分配给 a。:
def char_check(x,y): if (str(x) in y or x.find(y) > -1) or (str(y) in x or y.find(x) > -1):
我有一种情况,我想将文本文件中的现有行包含到一个新 block 中。 line 1 line 2 line in block line 3 line 4 应该变成 line 1 line 2 line
我有一个新项目,我正在尝试设置 Django 调试工具栏。首先,我尝试了快速设置,它只涉及将 'debug_toolbar' 添加到我的已安装应用程序列表中。有了这个,当我转到我的根 URL 时,调试
在 Matlab 中,如果我有一个函数 f,例如签名是 f(a,b,c),我可以创建一个只有一个变量 b 的函数,它将使用固定的 a=a1 和 c=c1 调用 f: g = @(b) f(a1, b,
我不明白为什么 ForEach 中的元素之间有多余的垂直间距在 VStack 里面在 ScrollView 里面使用 GeometryReader 时渲染自定义水平分隔线。 Scrol
我想知道,是否有关于何时使用 session 和 cookie 的指南或最佳实践? 什么应该和什么不应该存储在其中?谢谢! 最佳答案 这些文档很好地了解了 session cookie 的安全问题以及
我在 scipy/numpy 中有一个 Nx3 矩阵,我想用它制作一个 3 维条形图,其中 X 轴和 Y 轴由矩阵的第一列和第二列的值、高度确定每个条形的 是矩阵中的第三列,条形的数量由 N 确定。
假设我用两种不同的方式初始化信号量 sem_init(&randomsem,0,1) sem_init(&randomsem,0,0) 现在, sem_wait(&randomsem) 在这两种情况下
我怀疑该值如何存储在“WORD”中,因为 PStr 包含实际输出。? 既然Pstr中存储的是小写到大写的字母,那么在printf中如何将其给出为“WORD”。有人可以吗?解释一下? #include
我有一个 3x3 数组: var my_array = [[0,1,2], [3,4,5], [6,7,8]]; 并想获得它的第一个 2
我意识到您可以使用如下方式轻松检查焦点: var hasFocus = true; $(window).blur(function(){ hasFocus = false; }); $(win
我是一名优秀的程序员,十分优秀!