gpt4 book ai didi

join - 如何在 Apache Spark SQL 中执行更新

转载 作者:行者123 更新时间:2023-12-02 09:45:35 25 4
gpt4 key购买 nike

我必须通过一些 WHERE 条件来使用一些新值更新 JavaSchemaRDD

这是我想要转换为 Spark SQL 的 SQL 查询:

UPDATE t1
SET t1.column1 = '0', t1.column2 = 1, t1.column3 = 1
FROM TABLE1 t1
INNER JOIN TABLE2 t2 ON t1.id_column = t2.id_column
WHERE (t2.column1 = 'A') AND (t2.column2 > 0)

最佳答案

是的,我自己找到了解决方案。我仅使用 Spark 核心实现了这一点,我还没有使用 Spark-Sql 来实现这一点。我有 2 个 RDD(也可以称为表或数据集)t1 和 t2。如果我们在问题中观察我的查询,我将根据一个连接条件和两个 where 条件更新 t1 。这意味着我需要 t2 中的三列(id_column、column1 和 column2)。所以我将这些专栏分成了 3 个单独的集合。然后我对第一个 RDD t1 进行迭代,并在迭代期间使用 java“if”条件添加了这三个条件语句(1 个 Join 和 2 个 where 条件)。因此,根据“if”条件结果,首先更新 RDD 值。

关于join - 如何在 Apache Spark SQL 中执行更新,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28599917/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com