- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我正在 RHEL 6.3 (x86_64) 系统上开展一个涉及网络消息队列(msgpack、zmq 等)的项目。我正在安装最新的 glib、gevent、pygobject、pygtk 等软件包,以便让 pylab/matplotlib 工作(也没有成功)。
放弃后我回到了我的代码,不知何故我设法破坏了我的 hdf5/h5py 安装 - h5py 在导入时找不到 libhdf5.so.7。我立即在 RHEL 6.3 (x86_64) 上的/usr/local/hdf5 中重新安装了 hdf5-1.8.9,如下所示:
./configure --prefix=/usr/local/hdf5
make
make check
sudo make install
make check install
这似乎工作得很好。然后我去重新安装 h5py(在 python 2.7.3 中):
python2.7 setup.py build --hdf5=/usr/local/hdf5/
python2.7 setup.py test # optional
# sudo python2.7 setup.py install
无法在测试中导入 _errors 文件,如下所示:
======================================================================
ERROR: _hl.tests.test_attrs_data (unittest.loader.ModuleImportFailure)
----------------------------------------------------------------------
ImportError: Failed to import test module: _hl.tests.test_attrs_data
Traceback (most recent call last):
File "/usr/local/lib/python2.7/unittest/loader.py", line 252, in _find_tests
module = self._get_module_from_name(name)
File "/usr/local/lib/python2.7/unittest/loader.py", line 230, in _get_module_from_name
__import__(name)
File "/home/cronburg/Downloads/h5py-2.0.1/build/lib.linux-x86_64-2.7/h5py/_hl/tests/test_attrs_data.py", line 5, in <module>
import h5py
File "/home/cronburg/Downloads/h5py-2.0.1/build/lib.linux-x86_64-2.7/h5py/__init__.py", line 1, in <module>
from h5py import _errors
ImportError: libhdf5.so.7: cannot open shared object file: No such file or directory
----------------------------------------------------------------------
Ran 12 tests in 0.001s
FAILED (errors=12)
在我安装上述包/tarball 之前,h5py 工作正常,而且我不记得接触过任何看起来像 hdf5 的东西。有什么想法吗?
编辑:尝试定位文件只会在我解压它的位置显示它:
cronburg@rhel:~/Downloads/h5py-2.0.1$ locate libhdf5.so.7
/home/cronburg/tmp/hdf5-1.8.9/hdf5/lib/libhdf5.so.7
/home/cronburg/tmp/hdf5-1.8.9/hdf5/lib/libhdf5.so.7.0.3
/home/cronburg/tmp/hdf5-1.8.9/src/.libs/libhdf5.so.7
/home/cronburg/tmp/hdf5-1.8.9/src/.libs/libhdf5.so.7.0.3
最佳答案
看看: http://rpm.pbone.net/index.php3/stat/3/srodzaj/1/search/libhdf5.so.7()(64bit)
或者应该尝试这个 repo:https://ius.io/Packages/
我更喜欢始终以包格式使用最新的 python 版本。
https://dl.iuscommunity.org/pub/ius/stable/Redhat/6/x86_64/repoview/python27.html
sudo yum install -y https://centos6.iuscommunity.org/ius-release.rpm
sudo yum install -y python27
sudo yum install -y python27-devel
做一个 pip install
并开心:
$ sudo pip install h5py
Installing collected packages: h5py
Successfully installed h5py-2.6.0
关于python - hdf5/h5py ImportError : libhdf5. so.7,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11581898/
尝试使用 pyarrow 访问 hdfs 文件但无法使其正常工作,以下是代码,非常感谢您提前。 [rxie@cedgedev03 code]$ python Python 2.7.12 |Anacon
我是 hadoop 的新手,我安装了 hadoop。 Datanode、Namenode等都上来了,一切顺利。我必须单独下载 libhdfs 还是它包含在包中?我只能看到它的 Java 内容。非常感谢
我正在尝试在Windows上测试libhdfs,它使用JNI调用Java函数(创建的JVM),但是在加载hadoop类时,findclass总是失败。 我已经搜索并搜索了stackoverflow,找
我的程序正在使用 libhdfs.so 进行 hdfs 读/写,我想设置一个断点进行调试,但是当这个程序运行到 hdfsConnect 点时,它会因段错误而退出。 有趣的是,当我正常运行程序时,根本不
正如标题,在 JAVA API 中,org.apache.hadoop.conf.Configuration 中有几种方法可以获取有关我们在 hdfs 配置文件中配置的详细信息。如hdfs-site.
我发现有人说 libhdfs 在 2010 年左右不支持读/写 gzip 文件。 我下载了最新的 hadoop-2.0.4 并阅读了 hdfs.h。也没有压缩参数。 现在想知道现在支持读取压缩文件了吗
代码为libhdfs测试代码。 int main(int argc, char **argv) { hdfsFS fs = hdfsConnect("hdfs://labossrv14",
我正在尝试用 C++ 编写一个接口(interface),以使用 libhdfs.so 在 hdfs 中写入文件。我的目标 hadoop 版本是 2.0.2-alpha 下面的代码 hdfsFS f
我想使用 libhdfs 写入和读取 HDFS。我有发布版本 hadoop2.5.0。我想做的是编译并运行他们提供的代码作为测试,代码编译正常,这就是我所做的 gcc -I/usr/lib/jvm/j
我正在尝试编译 libhdfs(一个允许外部应用程序与 hdfs 交互的 native 共享库)。这是我使用 Fuse 挂载 Hadoop 的 hdfs 必须采取的几个步骤之一。 编译似乎进行了一段时
我在尝试运行 python 脚本调用存储在 HDFS 中的文件上的 Tensorflow 读取器时遇到错误“libhdfs.so:无法打开共享对象文件:没有这样的文件或目录”(下面的堆栈跟踪)。我在集
我正在尝试 append 到版本 0.23.5 上的 hdfs 文件。我在 hdfs-site.xml 中将属性 dfs.support.append 设置为 true。调用 hdfsWrite()
我是一名优秀的程序员,十分优秀!