gpt4 book ai didi

apache-spark - 如何将稀疏向量的 Spark DataFrame 列转换为密集向量列?

转载 作者:行者123 更新时间:2023-12-01 00:37:59 25 4
gpt4 key购买 nike

我使用了以下代码:

df.withColumn("dense_vector", $"sparse_vector".toDense)  

但它给出了一个错误。

我是 Spark 的新手,所以这可能很明显,我的代码行中可能有明显的错误。请帮忙。谢谢!

最佳答案

需要这样操作的上下文在 Spark 中相对较少。除了一两个异常(exception),Spark API 期望通用 Vector类不是特定的实现( SparseVectorDenseVector )。对于来自 o.a.s.mllib.linalg.distributed 的分布式结构也是如此。

import org.apache.spark.mllib.linalg.{Vector, Vectors}
import org.apache.spark.mllib.linalg.distributed.RowMatrix

val df = Seq[(Long, Vector)](
(1L, Vectors.dense(1, 2, 3)), (2L, Vectors.sparse(3, Array(1), Array(3)))
).toDF("id", "v")

new RowMatrix(df.select("v")
.map(_.getAs[Vector]("v")))
.columnSimilarities(0.9)
.entries
.first
// apache.spark.mllib.linalg.distributed.MatrixEntry = MatrixEntry(0,2,1.0)

不过,您可以像这样使用 UDF:

val asDense = udf((v: Vector) => v.toDense)

df.withColumn("vd", asDense($"v")).show
// +---+-------------+-------------+
// | id| v| vd|
// +---+-------------+-------------+
// | 1|[1.0,2.0,3.0]|[1.0,2.0,3.0]|
// | 2|(3,[1],[3.0])|[0.0,3.0,0.0]|
// +---+-------------+-------------+

请记住,由于版本 2.0 Spark 提供了两种不同且兼容的 Vector类型:
  • o.a.s.ml.linalg.Vector
  • o.a.s.mllib.linalg.Vector

  • 每个都有相应的 SQL UDT。见 MatchError while accessing vector column in Spark 2.0

    关于apache-spark - 如何将稀疏向量的 Spark DataFrame 列转换为密集向量列?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39132230/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com