gpt4 book ai didi

scala - 使用 Spark 连接器填充 Neo4j

转载 作者:行者123 更新时间:2023-12-01 13:21:46 25 4
gpt4 key购买 nike

我将 Spark2 与 Neo4j 3(安装在一个节点上)与此 Spark/Neo4J 一起使用 https://github.com/neo4j-contrib/neo4j-spark-connector

我可以对我的数据库进行身份验证。

在我阅读的所有文档中,没有人直接使用 Spark 填充 Neo4j。

他们通过 UI 或其他方式直接请求将数据加载到 Neo4J。

我必须使用 spark 在 Neo4j 中摄取数据。

我是否必须映射到每个 Dataframe 并创建查询并执行它们?

来源: https://docs.databricks.com/spark/latest/data-sources/neo4j.html : 只要求...

https://neo4j.com/developer/apache-spark/ :org.neo4j.spark.Neo4j(sc).cypher(query,[params]),nodes(query,[params]),rels(query,[params]).

感谢您的帮助。

最佳答案

根据 neo4j-spark-connector 的文档,您应该能够使用 mergeEdgeList() 函数将数据从 DataFrame 加载到 Neo4j 数据库中。这thread讨论同一件事,可能对您有所帮助。

关于scala - 使用 Spark 连接器填充 Neo4j,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49561182/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com