gpt4 book ai didi

apache-spark - 在 Spark 中,如何从行创建元组为 (Col1 , Col2,Col3 ,(Col4+Col5+Col6))

转载 作者:行者123 更新时间:2023-12-02 20:55:08 24 4
gpt4 key购买 nike

在 Spark 中,如何从行创建元组

(Col1,Col2,Col3,(Col4+Col5+Col6))

我有 400 多个动态生成的列名称。我不想在数据库中进行此聚合,因此 select col1,col2,col3, (col4+col5+col6) 不是解决方案。我使用 cassandra 作为数据存储

最佳答案

总的来说,我认为你的想法是正确的,所以我的建议只是语法糖:

df
.map{row => (row(0), row(1), row(2), (3 until row.length).map(row.getLong(_)).sum)}

关于apache-spark - 在 Spark 中,如何从行创建元组为 (Col1 , Col2,Col3 ,(Col4+Col5+Col6)),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40688709/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com