gpt4 book ai didi

apache-spark - 在 PySpark 中获取列的名称/别名

转载 作者:行者123 更新时间:2023-12-04 11:27:28 24 4
gpt4 key购买 nike

我正在定义一个这样的列对象:

column = F.col('foo').alias('bar')
我知道我可以使用 str(column) 获得完整的表达式.
但是我怎样才能获得列的别名呢?
在这个例子中,我正在寻找一个函数 get_column_name哪里 get_column_name(column)返回字符串 bar .

最佳答案

一种方法是通过正则表达式:

from pyspark.sql.functions import col
column = col('foo').alias('bar')
print(column)
#Column<foo AS `bar`>

import re
print(re.findall("(?<=AS `)\w+(?=`>$)", str(column)))[0]
#'bar'

关于apache-spark - 在 PySpark 中获取列的名称/别名,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55949579/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com