- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我在 centos 7 上使用 hadoop 2.7.1
如果我想将 webhdfs 与 Hadoop 集群一起使用
我应该配置这个属性
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
还有什么?
我的名字节点ip是192.168.4.128
当我在 Windows 8 上使用 Firefox 并发送此获取请求时
http://192.168.4.128:50070/webhdfs/v1/hadoopDir/A.txt/?user.name=SYSTEM&op=OPEN
我可以打开一个文件并查看它的内容
但是当我发送PUT
请求时
http://192.168.4.128:50070/webhdfs/v1/HadoopDir/B.txt/?user.name=SYSTEM&op=CREATE&data=true
我得到以下响应
{"RemoteException":{"exception":"IllegalArgumentException","javaClassName":"java.lang.IllegalArgumentException","message":"Invalid value for webhdfs parameter \"op\": No enum constant org.apache.hadoop.hdfs.web.resources.GetOpParam.Op.CREATE"}}
为什么在打开文件的 GET
操作中一切正常,但在 PUT
中却不行。
是否应该处理任何其他配置来处理此请求?
最佳答案
WebHDFS 执行四种 HTTP 操作(GET、POST、PUT、DELETE),而 Web 浏览器通常只支持 GET 和 POST。
包括一些插件,如 RESTClient (对于 Firefox),Advanced REST Client (对于 Chrome)用于发送 HTTP PUT 和 HTTP DELETE 请求。
或者,您可以从命令行使用 curl
。
注意:WebHDFS 默认启用。所以,在hdfs-site.xml
中添加的属性是多余的(只是说)。
关于hadoop - webhdfs 创建文件异常,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43255049/
我看到 webhdfs 不支持目录大小。在 HDFS 中,我可以使用 hdfs dfs -du -s -h /my/directory 有没有办法从 webHDFS 派生这个?我需要以编程方式执行此操
我在 centos 7 上使用 hadoop 2.7.1 如果我想将 webhdfs 与 Hadoop 集群一起使用 我应该配置这个属性 dfs.webhdfs.enabled
curl -i -X PUT "http://SomeHostname:50070/webhdfs/v1/file1?op=CREATE" HTTP/1.1 307 TEMPORARY_REDIREC
以下命令在Linux上有效,但在Windows上失败。在运行命令之前,我使用kinit获取有效的Kerberos票证。 curl -v -i --negotiate -u : -b ~/cookiej
我想使用 webhdfs 将一个或多个文件从一个路径移动到另一个路径。我正在使用 hadoop 1.3。是否存在这样的REST调用 最佳答案 是的,您可以使用 rename “重命名”文件的路径。 关
我已经阅读了所有这些链接中的 Web Hdfs link1 link2 link3 使用 telnet 检查 - 端口已打开 在cloudera(virtual box)中进行必要的设置以启用webh
我无法将文件传输到 Hadoop。下面我添加我使用过的命令和得到的错误。 命令 1: curl -i -X PUT "http://myip:50070/webhdfs/v1/tmp/tempForT
我有一个 hdfs 集群 (hadoop 2.7.1),有一个名称节点、一个辅助名称节点、3 个数据节点。 当我启用 webhdfs 并进行测试时,我发现它总是重定向到未配置为数据节点的“localh
我正在尝试通过 webhdfs API 从 HDFS 打开一个文件。我可以创建文件并上传它们,但是一旦我尝试打开我就会收到此错误 {"RemoteException":{"exception":"Nu
Hortonworks Sandbox 文件浏览器显示 WebHdfsException,并且在 CLI 中我无法创建目录或文件。怎么了? WebHdfsException at /filebrows
有没有一种方法可以将文件从(比方说)hdfs://old 复制到 hdfs://new 而无需先下载文件然后再上传又是? 最佳答案 不知道 WebHDFS,但这可以使用 hadoop distcp 实
我已经使用 Kerberos (CDH4.3) 配置了启用安全性的 Hadoop HDFS。它工作正常,我可以使用命令行工具完成所有操作。还有一些其他非 hadoop 集群节点需要通过 REST AP
WebHDFS 真的不支持 SequenceFiles 吗? 我找不到任何说明它确实如此的东西。我遇到了常见的小文件问题,并且相信 SequenceFiles 可以正常工作,但我需要使用 WebHDF
我在路径/user/admin/foo.txt 的 HDFS 中创建了一个简单的文件 我可以在 Hue 中看到这个文件的内容。 我如何发出命令 curl -i http://namenode:5007
我已经在 Windows 中使用 SASL 为 hadoop-2.6.0 配置了 kerberos 安全性。 一切正常。但是 webhdfs 不能通过 https 协议(protocol)工作。 Pe
我使用 ubuntu 12,Hadoop 1.0.3,我使用 webhdfs curl 创建文件。 curl -i -X PUT "http://localhost:50070/webhdfs/v1/
我正在构建一个将一些数据推送到我的 HDFS 中的客户端。因为 HDFS 位于防火墙后面的集群内,所以我使用 HttpFS 作为代理来访问它。当我尝试读取/写入 HDFS 时,客户端退出并出现 IOE
我设置了单节点 Hadoop 集群来使用 HDFS 进行一些实验。通过网络访问一切看起来都很好,我创建了一个专用文件夹并使用命令行将文件从本地系统复制到它。这一切都出现在网络用户界面中。之后我通过 W
是否有任何 Spring 支持 wedhdfs?我没有在谷歌上找到任何有用的链接。 我想通过 webhdfs 连接到具有正常身份验证和 kerberos 身份验证的 hadoop。 spring 支持
WebHDFS REST API 之间有什么区别?和 HttpFS ? 如果我理解正确的话: HttpFS 是一个独立的服务,在 HDFS 之上公开了一个 REST API WebHDFS 是一个内置
我是一名优秀的程序员,十分优秀!