- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在 hadoop 上运行一个简单的 MapReduce 程序,计算数据集列中值的最小值、最大值、中值和标准差。当我在计算机上本地运行此程序时,我得到了根据数据集的所有值计算出的最终输出。但是,当我在 Hadoop 上运行此程序时,输出几乎恰好对应于数据集列中值的一半。代码如下:
映射器.py
#!/usr/bin/env python3
import sys
import csv
# Load data
data = csv.DictReader(sys.stdin)
# Prints/Passes key-value to reducer.py
for row in data:
for col, value in row.items():
if col == sys.argv[1]:
print('%s\t%s' % (col, value))
reducer .py
#!/usr/bin/env python3
import sys
import statistics
key = None
current_key = None
num_list = []
for line in sys.stdin:
# Remove leading and trailng whitespace
line = line.strip()
# Parse input
key, value = line.split('\t', 1)
# Convert string to int
try:
value = float(value)
except ValueError:
# Skip the value
continue
if current_key == key:
num_list.append(value)
else:
if current_key:
print("Num. of Data Points %s\t --> Max: %s\t Min: %s\t Median: %s\t Standard Deviation: %s" \
% (len(num_list), max(num_list), min(num_list), statistics.median(num_list), statistics.pstdev(num_list)))
num_list.clear()
num_list.append(value)
current_key = key
# Output last value if needed
if current_key == key:
print("Num. of Data Points %s\t --> Max: %s\t Min: %s\t Median: %s\t Standard Deviation: %s" \
% (len(num_list), max(num_list), min(num_list), statistics.median(num_list), statistics.pstdev(num_list)))
Hadoop 日志:
2019-12-02 23:54:40,705 INFO mapreduce.Job: Running job: job_1575141442909_0026
2019-12-02 23:54:47,903 INFO mapreduce.Job: Job job_1575141442909_0026 running in uber mode : false
2019-12-02 23:54:47,906 INFO mapreduce.Job: map 0% reduce 0%
2019-12-02 23:54:54,019 INFO mapreduce.Job: map 100% reduce 0%
2019-12-02 23:54:59,076 INFO mapreduce.Job: map 100% reduce 100%
2019-12-02 23:55:00,115 INFO mapreduce.Job: Job job_1575141442909_0026 completed successfully
2019-12-02 23:55:00,253 INFO mapreduce.Job: Counters: 54
File System Counters
FILE: Number of bytes read=139868
FILE: Number of bytes written=968967
FILE: Number of read operations=0
FILE: Number of large read operations=0
FILE: Number of write operations=0
HDFS: Number of bytes read=501097
HDFS: Number of bytes written=114
HDFS: Number of read operations=11
HDFS: Number of large read operations=0
HDFS: Number of write operations=2
HDFS: Number of bytes read erasure-coded=0
Job Counters
Launched map tasks=2
Launched reduce tasks=1
Data-local map tasks=2
Total time spent by all maps in occupied slots (ms)=7492
Total time spent by all reduces in occupied slots (ms)=2767
Total time spent by all map tasks (ms)=7492
Total time spent by all reduce tasks (ms)=2767
Total vcore-milliseconds taken by all map tasks=7492
Total vcore-milliseconds taken by all reduce tasks=2767
Total megabyte-milliseconds taken by all map tasks=7671808
Total megabyte-milliseconds taken by all reduce tasks=2833408
Map-Reduce Framework
Map input records=10408
Map output records=5203
Map output bytes=129456
Map output materialized bytes=139874
Input split bytes=220
Combine input records=0
Combine output records=0
Reduce input groups=1
Reduce shuffle bytes=139874
Reduce input records=5203
Reduce output records=1
Spilled Records=10406
Shuffled Maps =2
Failed Shuffles=0
Merged Map outputs=2
GC time elapsed (ms)=80
CPU time spent (ms)=2790
Physical memory (bytes) snapshot=676896768
Virtual memory (bytes) snapshot=8266964992
Total committed heap usage (bytes)=482344960
Peak Map Physical memory (bytes)=253210624
Peak Map Virtual memory (bytes)=2755108864
Peak Reduce Physical memory (bytes)=173010944
Peak Reduce Virtual memory (bytes)=2758103040
Shuffle Errors
BAD_ID=0
CONNECTION=0
IO_ERROR=0
WRONG_LENGTH=0
WRONG_MAP=0
WRONG_REDUCE=0
File Input Format Counters
Bytes Read=500877
File Output Format Counters
Bytes Written=114
2019-12-02 23:55:00,254 INFO streaming.StreamJob: Output directory: data/output
本地输出:
# Data Points: 10407 Max: 89.77682042 Min: 13.87331897 Median: 46.44807153 Standard Deviation: 11.156280347146872
Hadoop 输出:
# Data Points: 5203 Max: 89.77682042 Min: 13.87331897 Median: 46.202181 Standard Deviation: 11.28118280525746
正如您所看到的,Hadoop 输出中的数据点数量几乎恰好是本地输出的全部数据点数量的一半。我尝试使用不同大小的不同数据集,但它仍然总是一半......我做错了什么或遗漏了什么吗?
最佳答案
我已经弄清楚为什么我会得到这样的输出。原因是因为正如我怀疑的那样,Hadoop 将我的输入数据分成两部分,用于两个单独的映射器。然而,只有前半部分数据保留了数据集的列标题,因此,当映射器读取数据集的后半部分时,将不会访问指定的列。
我从数据集中删除了现有 header ,并在读取数据时设置字段名称以解决我的问题:
data = csv.DictReader(sys.stdin, fieldnames=("col1", "col2", "col3", "col4", "col5"))
关于python - 在 Hadoop 上运行 MapReduce 程序仅输出一半的数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59150406/
我正在使用 OUTFILE 命令,但由于权限问题和安全风险,我想将 shell 的输出转储到文件中,但出现了一些错误。我试过的 #This is a simple shell to connect t
我刚刚开始学习 Java,我想克服在尝试为这个“问题”创建 Java 程序时出现的障碍。这是我必须创建一个程序来解决的问题: Tandy 喜欢分发糖果,但只有 n 颗糖果。对于她给第 i 个糖果的人,
你好,我想知道我是否可以得到一些帮助来解决我在 C++ 中打印出 vector 内容的问题 我试图以特定顺序在一个或两个函数调用中输出一个类的所有变量。但是我在遍历 vector 时收到一个奇怪的错误
我正在将 intellij (2019.1.1) 用于 java gradle (5.4.1) 项目,并使用 lombok (1.18.6) 来自动生成代码。 Intellij 将生成的源放在 out
编辑:在与 guest271314 交流后,我意识到问题的措辞(在我的问题正文中)可能具有误导性。我保留了旧版本并更好地改写了新版本 背景: 从远程服务器获取 JSON 时,响应 header 包含一
我的问题可能有点令人困惑。我遇到的问题是我正在使用来自 Java 的 StoredProcedureCall 调用过程,例如: StoredProcedureCall call = new Store
在我使用的一些IDL中,我注意到在方法中标记返回值有2个约定-[in, out]和[out, retval]。 当存在多个返回值时,似乎使用了[in, out],例如: HRESULT MyMetho
当我查看 gar -h 的帮助输出时,它告诉我: [...] gar: supported targets: elf64-x86-64 elf32-i386 a.out-i386-linux [...
我想循环遍历一个列表,并以 HTML 格式打印其中的一部分,以代码格式打印其中的一部分。所以更准确地说:我想产生与这相同的输出 1 is a great number 2 is a great
我有下面的tekton管道,并尝试在Google Cloud上运行。集群角色绑定。集群角色。该服务帐户具有以下权限。。例外。不确定需要为服务帐户设置什么权限。
当尝试从 make 过滤非常长的输出以获取特定警告或错误消息时,第一个想法是这样的: $ make | grep -i 'warning: someone set up us the bomb' 然而
我正在创建一个抽象工具类,该类对另一组外部类(不受我控制)进行操作。外部类在某些接口(interface)点概念上相似,但访问它们相似属性的语法不同。它们还具有不同的语法来应用工具操作的结果。我创建了
这个问题已经有答案了: What do numbers starting with 0 mean in python? (9 个回答) 已关闭 7 年前。 在我的代码中使用按位与运算符 (&) 时,我
我写了这段代码来解析输入文件中的行输入格式:电影 ID 可以有多个条目,所以我们应该计算平均值输出:**没有重复(这是问题所在) import re f = open("ratings2.txt",
我需要处理超过 1000 万个光谱数据集。数据结构如下:大约有 1000 个 .fits(.fits 是某种数据存储格式)文件,每个文件包含大约 600-1000 个光谱,其中每个光谱中有大约 450
我编写了一个简单的 C 程序,它读取一个文件并生成一个包含每个单词及其出现频率的表格。 该程序有效,我已经能够在 Linux 上运行的终端中获得显示的输出,但是,我不确定如何获得生成的显示以生成包含词
很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visit the help center . 关闭 1
1.普通的输出: print(str)#str是任意一个字符串,数字··· 2.格式化输出: ?
我无法让 logstash 正常工作。 Basic logstash Example作品。但后来我与 Advanced Pipeline Example 作斗争.也许这也可能是 Elasticsear
这是我想要做的: 我想让用户给我的程序一些声音数据(通过麦克风输入),然后保持 250 毫秒,然后通过扬声器输出。 我已经使用 Java Sound API 做到了这一点。问题是它有点慢。从发出声音到
我是一名优秀的程序员,十分优秀!