gpt4 book ai didi

python - 如何使用 Spark 和 Python 在 HDP 2.2 中更新 python 2.7

转载 作者:可可西里 更新时间:2023-11-01 15:00:59 25 4
gpt4 key购买 nike

我正在尝试在 HDP 2.2 中使用 Ipython 和 Spark,但似乎只有 python 2.7 支持 ipython。我已经安装了 Spark 并测试了很好,但是在使用 yum 命令安装 ipython 之后,python 的版本是一个问题。

[root@sandbox spark12]# ipython
Python 2.6.6 (r266:84292, Jan 22 2014, 09:42:36)
Type "copyright", "credits" or "license" for more information.

IPython 0.13.2 -- An enhanced Interactive Python.
? -> Introduction and overview of IPython's features.
%quickref -> Quick reference.
help -> Python's own help system.
object? -> Details about 'object', use 'object??' for extra details.

Ipython 单独运行,但是当我尝试将它与 pyspark 一起使用时:

[root@sandbox spark12]# IPYTHON=1 ./bin/pyspark
IPython requires Python 2.7+; please install python2.7 or set PYSPARK_PYTHON

我想知道如何将 python 2.6 更新到 2.7。看来系统阻止我卸载 python 2.6。我的感觉是Python和hadoop系统是集成在一起的,很难单独更新。

最佳答案

我知道有点晚了,但我在使用 CentOS 时遇到了类似的问题。

通过下载 Anaconda 发行版的 Python 2.7 版本,我能够相对轻松地解决这个问题

wget http://repo.continuum.io/archive/Anaconda2-2.5.0-Linux-x86_64.sh

下载完毕

bash Anaconda2-2.5.0-Linux-x86_64.sh

然后按照说明 - 选择安装 anaconda 的位置并将此位置添加到您的路径中。

完成后,输入

source ~/.bashrc

然后您应该能够使用 Pyspark 运行 IPython

[user@quickstart ~]$ IPYTHON_OPTS="notebook"$SPARK_HOME/bin/pyspark
[I 09:43:06.241 NotebookApp] 从本地目录提供笔记本:/home/user
[I 09:43:06.241 NotebookApp] 0 个事件内核
[I 09:43:06.241 NotebookApp] Jupyter Notebook 运行在:http://localhost:8888/

关于python - 如何使用 Spark 和 Python 在 HDP 2.2 中更新 python 2.7,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28360430/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com