gpt4 book ai didi

apache-spark - 带有点 '.' 的数据框的 pyspark 访问列

转载 作者:行者123 更新时间:2023-12-04 05:11:13 26 4
gpt4 key购买 nike

除非首先由 groupby 重命名,否则包含点(例如“id.orig_h”)的 pyspark 数据帧将不允许 withColumnRenamed 。有解决方法吗? "`a.b`" 似乎没有解决它。

最佳答案

在我的 pyspark shell 中,以下代码段有效:

from pyspark.sql.functions import *
myCol = col("`id.orig_h`")
result = df.groupBy(myCol).agg(...)



myCol = df["`id.orig_h`"]   
result = df.groupBy(myCol).agg(...)

我希望它有帮助。

关于apache-spark - 带有点 '.' 的数据框的 pyspark 访问列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37251653/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com