gpt4 book ai didi

java - 如何计算非 Double 类型的 Spark 统计信息

转载 作者:行者123 更新时间:2023-11-30 07:36:54 24 4
gpt4 key购买 nike

Spark documenation包括用于计算“double”类型值的最小值、最大值、平均值统计信息的工具,但是在尝试处理 float 类型的列值时如何处理 Spark/java/cassandra 场景?

已编辑要显示分辨率:

import org.apache.spark.sql.DataFrame;
import static org.apache.spark.sql.functions.*;

DataFrame df = sqlContext.read()
.format("org.apache.spark.sql.cassandra")
.option("table", "someTable")
.option("keyspace", "someKeyspace")
.load();

df.groupBy(col("keyColumn"))
.agg(min("valueColumn"), max("valueColumn"), avg("valueColumn"))
.show();

最佳答案

转换它。(double) Variable_here 将是变量的值,但为 double 值。

关于java - 如何计算非 Double 类型的 Spark 统计信息,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35271723/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com