gpt4 book ai didi

apache-spark - RStudio 中 sparkR.init(master ="local") 中的 SparkR 错误

转载 作者:行者123 更新时间:2023-12-04 05:10:41 26 4
gpt4 key购买 nike

我已将 Spark 发行版中的 SparkR 包安装到 R 库中。我可以调用以下命令,它似乎可以正常工作:library(SparkR)
但是,当我尝试使用以下代码获取 Spark 上下文时,

sc <- sparkR.init(master="local")

一段时间后失败并显示以下消息:
Error in sparkR.init(master = "local") :
JVM is not ready after 10 seconds

我已经设置了 JAVA_HOME,并且我有一个可以工作的 RStudio,我可以在其中访问其他包,例如 ggplot2。我不知道为什么它不起作用,我什至不知道去哪里调查这个问题。

最佳答案

我遇到了同样的问题,我的 spark-submit.cmd文件也没有从命令行执行。以下步骤对我有用

转到您的环境变量并在系统变量中选择变量名称 PATH。与其他值一起添加 c:/Windows/System32/用分号隔开。这使我的 spark-submit.cmd 从命令行运行,最终从 Rstudio 运行。

我已经意识到只有在未指定所有必需的路径值时才会出现上述问题。确保在环境变量中指定了所有路径值(R、Rtools)。例如我的 Rtools 路径是 c:\Rtools\bin;c:\Rtools\gcc-4.6.3\bin
我希望这有帮助。

关于apache-spark - RStudio 中 sparkR.init(master ="local") 中的 SparkR 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31322131/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com