作者热门文章
- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想了解在KFS作为Hadoop中的文件系统时mapreduce是如何发生的。
# ./bin/start-mapred.sh
If the map/reduce job/task trackers are up, all I/O will be done to KFS.
因此,假设我的输入文件分散在不同的节点(Kosmos服务器)中,我(使用KFS作为文件系统的hadoop客户端)如何发出Mapreduce命令?
此外,发出Mapreduce命令后,我的hadoop客户端会从不同的服务器获取所有数据到本地计算机,然后执行Mapreduce还是在输入文件所在的计算机上启动TaskTracker守护程序,以及在那里执行Mapreduce?
如果我错了,请纠正我,但是我想输入文件top Mapreduce的位置由getFileBlockLocations函数(FileStatus,long,long)返回。
非常感谢您的宝贵时间,并帮助了我。
问候,
尼基尔
最佳答案
否。MapReduce是在所有节点上以分布式方式运行的程序。主节点将像负责完成工作的所有数据/从节点的主管一样。
map 缩减任务
libkfsClient.so
存储在NFS可访问目录中(类似于Hadoop二进制文件/脚本的存储位置);然后,修改Hadoop的conf / hadoop-env.sh,添加以下行并为
<path>:
export LD_LIBRARY_PATH=<path>
关于hadoop - KFS上的Mapreduce如何发生?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15018254/
当我查看 hadoop(版本 0.21.0)mapreduce 作业的 job.xml 文件时,我发现存在多个 blocksize 设置: dfs.blocksize = 134217728(即 12
我是一名优秀的程序员,十分优秀!