gpt4 book ai didi

sql - 如何在SparkSQL中实现Like条件?

转载 作者:行者123 更新时间:2023-12-03 07:17:26 31 4
gpt4 key购买 nike

如何编写 SQL 语句来达到目标​​,如下语句:

SELECT * FROM table t WHERE t.a LIKE '%'||t.b||'%';

谢谢。

最佳答案

spark.sql.Column 提供like 方法,但目前(Spark 1.6.0/2.0.0)它仅适用于字符串文字。您仍然可以使用原始 SQL:

import org.apache.spark.sql.hive.HiveContext
val sqlContext = new HiveContext(sc) // Make sure you use HiveContext
import sqlContext.implicits._ // Optional, just to be able to use toDF

val df = Seq(("foo", "bar"), ("foobar", "foo"), ("foobar", "bar")).toDF("a", "b")

df.registerTempTable("df")
sqlContext.sql("SELECT * FROM df WHERE a LIKE CONCAT('%', b, '%')")

// +------+---+
// | a| b|
// +------+---+
// |foobar|foo|
// |foobar|bar|
// +------+---+

expr/selectExpr:

df.selectExpr("a like CONCAT('%', b, '%')")

在 Spark 1.5 中,它将需要HiveContext。如果由于某种原因 Hive 上下文不是一个选项,您可以使用自定义 udf:

import org.apache.spark.sql.functions.udf

val simple_like = udf((s: String, p: String) => s.contains(p))
df.where(simple_like($"a", $"b"))

val regex_like = udf((s: String, p: String) =>
new scala.util.matching.Regex(p).findFirstIn(s).nonEmpty)
df.where(regex_like($"a", $"b"))

关于sql - 如何在SparkSQL中实现Like条件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32524044/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com