gpt4 book ai didi

hadoop - Mapreduce 日志 - 文件与 HDFS

转载 作者:可可西里 更新时间:2023-11-01 16:30:34 25 4
gpt4 key购买 nike

我提交了一个 mapreduce,这是我的输出。

下面给出的 FILE 和 HDFS 有什么区别?

16/01/07 21:49:58 INFO mapreduce.Job: Counters: 38
File System Counters
FILE: Number of bytes read=4011012
FILE: Number of bytes written=8400605
FILE: Number of read operations=0
FILE: Number of large read operations=0
FILE: Number of write operations=0
HDFS: Number of bytes read=11928267
HDFS: Number of bytes written=883509
HDFS: Number of read operations=37
HDFS: Number of large read operations=0
HDFS: Number of write operations=6

最佳答案

FILE - 给出在中间文件上执行的 I/O 数量,这些中间文件在 map 和 reduce 阶段(sort & shuffle 阶段)之间内部维护

HDFS - mapper 读取的数据量和 reducer 写入的数据量。

关于hadoop - Mapreduce 日志 - 文件与 HDFS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34666271/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com