gpt4 book ai didi

scala - 更新 graphx 中的边权重

转载 作者:行者123 更新时间:2023-12-03 22:44:43 31 4
gpt4 key购买 nike

我在玩graphx。我已经建立了一个图表
我正在尝试更新关系的权重,

import org.apache.spark.rdd.RDD
import org.apache.spark.graphx._
def pageHash(title:String ) = title.toLowerCase.replace(" ","").hashCode.toLong


val vertexArray = Array(
(pageHash("Alice"), ("Alice")),
(pageHash("Bob"), ("Bob")),
(pageHash("Charlie"), ("Charlie")),
(pageHash("David"), ("David")),
(pageHash("Ed"), ("Ed")),
(pageHash("Fran"), ("Fran"))
)
val edgeArray = Array(
Edge(pageHash("Bob"), pageHash("Alice"), 7),
Edge(pageHash("Bob"), pageHash("David"), 2),
Edge(pageHash("Charlie"), pageHash("Bob"), 4),
Edge(pageHash("Charlie"), pageHash("Fran"), 3),
Edge(pageHash("David"), pageHash("Alice"), 1),
Edge(pageHash("Ed"), pageHash("Bob"), 2),
Edge(pageHash("Ed"), pageHash("Charlie"), 8),
Edge(pageHash("Ed"), pageHash("Fran"), 3)
)


val vertexRDD: RDD[(Long, (String))] = sc.parallelize(vertexArray)
val edgeRDD: RDD[Edge[Int]] = sc.parallelize(edgeArray)
val graph: Graph[(String), Int] = Graph(vertexRDD, edgeRDD)

graph.triplets.filter(triplet => triplet.srcAttr.equals("Bob")&&triplet.dstAttr.equals("Alice")).collect()

graph.triplets.filter(triplet => triplet.srcAttr.equals("Bob")&&triplet.dstAttr.equals("Alice")).
map(triplet=> triplet.attr.toString.toInt+1).collect()

我无法增加节点的权重,有什么办法吗?

最佳答案

您不能直接更新 Edge ,但您可以通过添加新的 Edge 在功能上做同样的事情。同 srcdstedges RDD在您的 Graph和权重的增量,然后调用 groupEdges在你的。换句话说,如果您有以下图表:

val edges = sc.parallelize(Array(Edge(1L, 2L, 1.0), Edge(2L, 3L, 2.0)))
val vertices = sc.parallelize(Array((1L, "Bob"), (2L, "Tom"), (3L, "Jerry")))

val graph = Graph(vertices, edges)

您可以添加 1.0到这样的边之一的重量:
val newGraph = Graph(graph.vertices, graph.edges.union(
sc.parallelize(Array(Edge(2L, 3L, 1.0)))
).groupEdges((a, b) => a + b)

关于scala - 更新 graphx 中的边权重,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35603869/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com