gpt4 book ai didi

python - 带有 pip 安装的 Apache Spark 无法正常工作

转载 作者:太空宇宙 更新时间:2023-11-04 05:03:18 25 4
gpt4 key购买 nike

我正在尝试使用 Python 安装 Apache Spark,并在 7 月 11 日的版本中使用了 pip install python 命令。然而,虽然这成功安装并且我可以运行

from pyspark import SparkContext

在 python shell 中,我无法通过运行访问 pyspark shell

pyspark

或 Spark 提交,用

spark-submit.

两者的错误都是“找不到指定的路径”。我在 Windows 上,怀疑我缺少 spark 的 JAR 文件。 pip 安装不应该解决这个问题吗?

最佳答案

pysparkspark-submit您的路径中缺少位置(应为 <spark install directory>\bin)。

您可以通过完全指定它们的位置、导航到它们的安装位置并运行 pyspark 来运行它们或将它们添加到您的系统路径。

关于python - 带有 pip 安装的 Apache Spark 无法正常工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45149675/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com